DE112006003007T5 - Systeme und Verfahren zum Vermeiden von Hindernissen - Google Patents

Systeme und Verfahren zum Vermeiden von Hindernissen Download PDF

Info

Publication number
DE112006003007T5
DE112006003007T5 DE112006003007T DE112006003007T DE112006003007T5 DE 112006003007 T5 DE112006003007 T5 DE 112006003007T5 DE 112006003007 T DE112006003007 T DE 112006003007T DE 112006003007 T DE112006003007 T DE 112006003007T DE 112006003007 T5 DE112006003007 T5 DE 112006003007T5
Authority
DE
Germany
Prior art keywords
data
vehicle
obstacle
robot
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112006003007T
Other languages
English (en)
Other versions
DE112006003007B4 (de
Inventor
James Newton Allard
Kathleen A. Arlington Weinhold
William Robert Norris
Anthony Francis Davenport Catalfano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deere and Co
iRobot Corp
Original Assignee
Deere and Co
iRobot Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deere and Co, iRobot Corp filed Critical Deere and Co
Publication of DE112006003007T5 publication Critical patent/DE112006003007T5/de
Application granted granted Critical
Publication of DE112006003007B4 publication Critical patent/DE112006003007B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/24Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted
    • B62D1/28Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted non-mechanical, e.g. following a line or other known markers
    • B62D1/286Systems for interrupting non-mechanical steering due to driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/414Structure of the control system, e.g. common controller or multiprocessor systems, interface to servo, programmable interface controller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0055Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements
    • G05D1/0061Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Medical Informatics (AREA)
  • Manufacturing & Machinery (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Electromagnetism (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Shielding Devices Or Components To Electric Or Magnetic Fields (AREA)
  • Regulating Braking Force (AREA)

Abstract

Ein robotergesteuertes Fahrzeug mit:
einer Robotersteuereinheit mit einer Steueranwendung;
einem Sensor zum Erkennen von Objektdaten, die erkannte Hindernisse oder Objekte repräsentieren, die außerhalb des Roboterfahrzeugs erkannt worden sind, und zum Übertragen der Objektdaten an die Robotersteuereinheit;
wobei die Robotersteuereinheit eine Karte basierend auf den Objektdaten erzeugt, die Karte Kartierungsdaten aufweist und die Kartierungsdaten Positionsdaten der erkannten Hindernisse oder Objekte aufweist; und
wobei die Steueranwendungseinheit basierend wenigstens teilweise auf den Kartierungsdaten Fahrzeugaktionen bestimmt und einen Steuerbefehl an eine Fahrzeugsteuereinheit ausgibt, der die Fahrzeugaktionen repräsentiert.

Description

  • Bezogene Anmeldungen
  • Diese Erfindung beansprucht die Priorität der U.S. Provisional Patent Application Nr. 60/729,445 vom 21. Oktober 2005, U.S. Provisional Patent Application Nr. 60/729,388 vom 21. Oktober 2005, U.S. Provisional Patent Application No. 60/780,389 vom 08. März 2006 und U.S. Provisional Patent Application Nr. 60/838,704 vom 18. August 2006, die hier alle durch Bezugnahme vollständig einbezogen werden.
  • Diese Erfindung bezieht sich auf die PCT-Patentanmeldung mit der Bezeichnung „System und Verfahren zum Umschalten zwischen einem autonomen und einem manuellen Betrieb eines Fahrzeugs" [Anwaltsaktenzeichen Nr. 56516/336357], die PCT-Patentanmeldung mit der Bezeichnung „System und Verfahren zum Vermeiden von Hindernissen" [Anwaltsaktenzeichen Nr. 56516/336401] und die PCT-Patentanmeldung mit der Bezeichnung „Vernetztes Mehrfunktions-Roboterfahrzeug" [Anwaltsaktenzeichen Nr. 56516/336403], die gleichzeitig eingereicht werden und hier durch Bezugnahme vollständig einbezogen werden.
  • GEBIET DER ERFINDUNG
  • Diese Erfindung bezieht sich allgemein auf Systeme und Verfahren zur autonomen Steuerung von Fahrzeugen und Fahrzeugsensoren, Aktuatoren und/oder Kommunikationen. Insbesondere beziehen sich Ausführungsbeispiele dieser Erfindung auf ein vielseitiges Robotersteuermodul und Systeme und Verfahren zum Vermieden von Hindernissen unter Verwendung von zwei- und dreidimensionaler Information.
  • HINTERGRUND DER ERFINDUNG
  • Roboterfahrzeuge oder autonome Fahrzeuge (manchmal als mobile Roboterplattformen bezeichnet) haben im Allgemeinen ein Robotersteuersystem, das die operativen Systeme des Fahrzeugs steuert. Bei einem Fahrzeug, das auf eine Transportfunktion begrenzt ist, können die operativen Systeme die Steuer-, Brems-, Getriebe- und Drosselsysteme beinhalten. Im Oktober 2005 haben fünf derartige autonome Fahrzeuge (von dreiundzwanzig an der Endrunde teilnehmenden Fahrzeugen) die „Grand Challenge" des United States Defense Advanced Research Projects Administration (DARPA) erfolgreich beendet, ein Wettbewerb, der von vollständig autonome Fahrzeuge fordert, eine Strecke, die mehr als einhundert Meilen beträgt, zu bewältigen. Diese Fahrzeuge waren mit Robotersteuersystemen ausgebildet, wobei eine Reihe von Computern alle operativen Systeme des Fahrzeugs steu erten, wie das Lenken, das Bremsen, die Kraftübertragung und das Drosseln in Abhängigkeit von autonomen Entscheidungen, die von Programmen an Bord des Fahrzeugs in Antwort auf einen Sensoreingang ausgeführt werden, ohne eine menschliche Intervention auf der Strecke selbst.
  • Robotersteuersystem-Sensoreingaben können Daten aufweisen, die mit dem Zielort des Fahrzeugs, vorprogrammierter Weginformation und Information über erfasste Hindernisse assoziiert sind. Basierend auf einem Datensatz oder mehreren Datensätzen, die mit der oben genannten Information assoziiert sind, werden die Fahrzeugbewegungen gesteuert. Das Erfassen von Hindernissen jedoch kann falsche Datenpunkte erzeugen, unvollständige Hindernisdaten und/oder große Mengen an elektronischer Speicherkapazität und Rechnerleistung zum Berechnen der relevanten Datenpunkte erfordern. Zusätzlich kann das Kombinieren von Hindernisdaten mit Weg- oder Richtungsinformation in Fahrzeugbewegungen resultieren, die als ruckartige oder unsachgemäße Fahrzeugbewegungen charakterisiert werden können.
  • ZUSAMMENFASSUNG
  • Bestimmte Ausgestaltungen der Erfindung stellen ein Roboterfahrzeug bereit mit einer Robotersteuereinheit und einem Sensor zum Erfassen von Objektdaten, die erfasste Hindernisse oder Objekte darstellen, die außerhalb des Roboterfahrzeugs angeordnet sind und übertragen Objektdaten an die Robotersteuereinheit. Die Robotersteuereinheit kann eine Karte erzeugen, basierend auf den Objektdaten mit Kartendaten. Die Kartendaten können Positionsdaten der erfassten Hindernisse oder Objekte aufweisen. Die Robotersteuereinheit kann über Fahrzeugbewegungen basierend auf den Kartendaten entscheiden.
  • In einigen Ausgestaltungen ist ein Roboterfahrzeug bereitgestellt, das eine vordere Sensoranordnung, eine hintere Sensoranordnung und eine Robotersteuereinheit umfasst. Die vordere Sensoranordnung kann einen vorderen Bereichsscan ausführen, um vorwärts gerichtete Daten, die Hindernisse oder Objekte wenigstens vor dem Fahrzeug repräsentieren, zu erhalten. Die hintere Sensoranordnune kann einen nach hinten gerichteten Bereichsscan ausführen, um nach hinten gerichtete Daten zu erhalten, die Hindernisse oder Objekte wenigstens hinter dem Fahrzeug repräsentieren. Die Robotersteuereinheit kann die nach vorne und nach hinten gerichteten Daten empfangen und eine Hinderniskarte basierend auf den nach vorne und nach hinten gerichteten Daten erzeugen. Die Robotersteuereinheit kann einen Prozessor und einen Speicher umfassen. Der Speicher kann eine Hinderniskarte und ausführbaren Code aufweisen, wie etwa eine Range Guard Anwendung und eine Steueranwendung. Die Range Guard Anwendung kann Unterbrechungen in den nach vorne und nach hinten gerichteten Daten erfassen und die Daten wenigstens auf den Unterbrechungen basierend in den nach vorne gerichteten und nach hinten gerichteten Daten, die die Anwesenheit von Hindernissen in nach vorne und nach hinten gerichteten Scanbereich anzeigen, ersetzen. Die Steuereinheit kann einen Weg basierend auf wenigstens einem Teil auf der Hinderniskarte bestimmen und Steuerbefehle an eine Fahrzeugsteuereinheit wenigstens teilweise basierend auf dem Weg ausgeben.
  • In einigen Ausgestaltungen der vorliegenden Erfindung kann eine Laserscannerbaugruppe vorgesehen sein, die angepasst ist an ein Roboterfahrzeug angeschlossen zu werden. Die Laserscannerbaugruppe kann einen Laserscanner, einen Scannermechanismus und ein Schutzschild aufweisen. Der Laserscanner kann einen Laserstrahl zum Erfassen der Anwesenheit eines Hindernisses aussenden. Der Scannermechanismus kann die Position des Laserscanners beeinflussen. Das Schutzschild kann den Laserscanner vor Beschädigung schützen und dem Laserstrahl ermöglichen, die Anwesenheit eines Hindernisses zu erfassen. Der Schutzschild kann eine Basis, wenigstens zwei Stützelemente und eine Mehrzahl von Stützlamellen aufweisen. Die Basis kann die Laserscannerbaugruppe mit dem Roboterfahrzeug verbinden. Die wenigstens zwei Stützelemente können mit der Basis verbunden sein. Die Mehrzahl von Stützrippen kann mit den wenigstens zwei Stützelementen verbunden sein.
  • In einigen Ausgestaltungen der vorliegenden Erfindung kann das Roboterfahrzeug gesteuert werden, um einem Objekt zu folgen. Das Objekt kann für das Roboterfahrzeug zum Folgen identifiziert sein. Die Position des Roboterfahrzeugs relativ zu einer vorhergehenden Position und eine Bewegung des Objekts können bestimmt werden. Die Bereichsposition des Objekts kann geschätzt werden. Die Position des Objekts kann empfangen werden. Es kann bestimmt werden, ob sich das Objekt innerhalb der geschätzten Bereichsposition befindet. Ein Satz von Wegen, teilweise auf der Objektposition basierend kann berechnet werden. Der Satz von Wegen kann eine Mehrzahl von Wegen aufweisen. Ein Vorrangswert für jeden der Wege kann zugeordnet werden. Der Satz von Wegen kann für einen Fahrvermittler bereitgestellt werden.
  • In einem Ausführungsbeispiel der vorliegenden Erfindung kann ein Roboterfahrzeug unter Verwendung einer Hinderniskarte gesteuert werden. Eine Mehrzahl von Punkten, die Teil eines Hindernisses und eine Position des Hindernisses zu einer bestimmten Zeit darstellen, können erhalten werden. Ein Zeitstempel kann mit jedem Punkt assoziiert sein. Die Punkte können in einer Zelle kartiert sein, die in Gitter unterteilt ist. Die Mehrzahl von Punkten kann unterteilt sein in alte, aktuelle und neue Punkte, basierend auf dem assoziierten Zeitstempel. Das Zentrum von wenigstens einem der alten Punkte und der aktuellen Punkte kann bestimmt werden. Das Zentrum des neuen Punkts kann bestimmt werden. Eine Positionsdifferenz zwischen dem Zentrum der neuen Punkte und dem Zentrum von wenigstens einem der alten Punkte und der aktuellen Punkte kann erhalten werden. Eine Geschwindigkeit eines Objekts, basierend auf der Positionsdifferenz, kann bestimmt werden. Das Roboterfahrzeug kann unter Verwendung der Objektgeschwindigkeit gesteuert werden.
  • In einem Ausführungsbeispiel der vorliegenden Erfindung kann eine dreidimensionale Karte zur Benutzung in einem robotergesteuerten Fahrzeug erzeugt werden. Ein Laserscanner kann verwendet werden, um einen ersten Scan eines Scanbereichs auszuführen. Zweidimensionale Hindernisdatenpunkte können erhalten werden, die Hindernisse repräsentieren, die sich im Scanbereich befinden. Scandaten können mit den Hindernisdatenpunkten assoziiert werden. Die Scandaten können Scanbereichsdaten aufweisen, die den Scanbereich, darstellen, Scannerwinkeldaten, die den Winkel des Laserscanners repräsentieren, Fahrzeugsgeschwindigkeitsdaten und einen Laserscannersynchronisationspuls. Die Scandaten und die Hindernisdatenpunkte können an eine Robotersteuereinheit gesendet werden. Die Hindernisdatenpunkte können mit einem Zeitstempel versehen werden. Eine Hinderniskarte kann teilweise basierend auf den zeitcodierten Hindernisdatenpunkten und Scandaten erzeugt werden.
  • In einer Ausgestaltung der vorliegenden Erfindung können dreidimensionale Hindernisdaten in zweidimensionale Hindernisdaten zum Steuern eines Roboterfahrzeugs umgewandelt werden. Eine Mehrzahl von dreidimensionalen zeitcodierten Hindernisdaten kann von einem Laserscanner erhalten werden. Die Hindernisdaten können den Ort der Hindernisse repräsentieren. Zeitcodierte Fahrzeugdaten des Roboterfahrzeugs können empfangen werden. Die Hindernisdaten können mit voreingestellten Kriterien verglichen werden, um die Hindernisdaten in relevante Hindernisdaten und irrelevante Hindernisdaten zu unterteilen. Die relevanten Hindernisdaten entsprechen nicht den voreingestellten Kriterien und werden verworfen. Die relevanten Hindernisdaten können mit einer zweidimensionalen Punktewolke korreliert werden, die einen Index einer Punkteansammlung entspricht. Hindernisdaten mit Zeitstempeln, die älter als ein voreingestellter Schwellwert sind, können verworfen werden. Eine Hinderniskarte kann aus der Punktanordnung erzeugt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Diese und andere Merkmale, Gesichtspunkte und Vorteile dieser Erfindung werden besser verstanden, wenn die folgende detaillierte Beschreibung mit Bezug auf die beigefügten Zeichnungen gelesen wird, wobei:
  • 1 ein Blockdiagramm ist, das ein Robotersteuersystem gemäß einer Ausgestaltung der vorliegenden Erfindung darstellt;
  • 2A–C Blockdiagramme sind, die das Robotersteuersystem gemäß Ausgestaltungen der vorliegenden Erfindung darstellen.
  • 3 eine Draufsicht eines beispielhaften Fahrzeugs ist, das Robotersteuermodule gemäß einem Ausführungsbeispiel der vorliegenden Erfindung aufweist;
  • 4 eine Draufsicht des beispielhaften Fahrzeugs aus 3 ist, das eine Maschine und Robotersteuermodule gemäß einem Ausführungsbeispiel der vorliegenden Erfindung aufweist;
  • 5A–B einen Laserscanner zeigen, mit einem schützenden Schutzschild gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 6 ein Blockdiagramm des Laserscanners ist, der mit einer RCU gemäß einem Ausführungsbeispiel der vorliegenden Erfindung kommuniziert;
  • 7 ein Blockdiagramm eines Fahrervermittleralgorithmus gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist;
  • 8 ein Blockdiagramm eines Objektbewegungserfassungssystems gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist;
  • 9 Pfade und Zonen zeigt, die die Bewegungen eines robotergesteuerten Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung betreffen;
  • 10 Cluster und benachbarte Punkte darstellt, die das Objektbewegungserfassungssystem gemäß einem Ausführungsbeispiel der vorliegenden Erfindung betreffen;
  • 11A–B Gitterzellen darstellen, die mit Punkteclustern assoziiert sind, die das Objektbewegungserfassungssystem gemäß einem Ausführungsbeispiel der Erfindung betreffen;
  • 12 ein Flussdiagramm eines 2D zu 3D Umwandlungssystems zum Erfassen von Hindernissen gemäß einem Ausführungsbeispiel der Erfindung ist;
  • 13A–B 3D-2D Datenpunkte darstellen, die mit dem 3D zu 2D Datenumwandlungssystem gemäß einem Ausführungsbeispiel der Erfindung assoziiert sind;
  • 14 ein Flussdiagramm eines 3D zu 2D Umwandlungssystems zum Erfassen von Hindernissen ist;
  • 15 ein Sensorerfassungssystem gemäß einem Ausführungsbeispiel der Erfindung darstellt;
  • 16 einen Laserscan zeigt, der Löcher oder Negativhindernisse gemäß einem Ausführungsbeispiel der Erfindung erfasst;
  • 17 einen Laserscan zeigt, der Daten eines möglichen Hindernisses aufgrund einer Diskontinuität der Daten gemäß einem Ausführungsbeispiel der vorliegenden Erfindung erhält;
  • 18 einen Laserscan zeigt, der Punkte erhält, die auf einen 2D Scanbereich gemäß einem Ausführungsbeispiel der Erfindung abgebildet werden;
  • 19 eine Single Board Computer Software Architektur für eine RCU gemäß einem Ausführungsbeispiel der Erfindung darstellt;
  • 20 eine Hinderniskarten/Erkennungsfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird;
  • 21 eine Teleoperationsfunktion darstellt, die in eine RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird;
  • 22 eine Folgemodusfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird;
  • 23 eine Wegpunktsnavigationsfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird;
  • 24 eine Hindernisvermeidungsfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird;
  • 25 eine Fahrervermittlungsfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird;
  • 26 eine Pfadaufnahmefunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird;
  • 27 eine Pfadabspielfunktion darstellt, die einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird;
  • 28 eine VCU Schnittstellenfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird.
  • DETAILLIERTE BESCHREIBUNG
  • Ausführungsbeispiele der Erfindung schaffen Systeme und Verfahren zur Vermeidung von Hindernissen. Bei einigen Ausführungsbeispielen kann ein robotergesteuertes Fahrzeug geschaffen werden, das in einer oder mehreren Betriebsweisen arbeitet. Beispiele solcher Betriebsweisen weisen eine Fernbedienung, eine Wegpunktnavigation, eine Folgebetrieb und einen manuellen Betrieb auf. DAS Fahrzeug kann ein Hinderniserkennung und -vermeidungssystem aufweisen, das dazu in der Lege ist, mit einem oder mehreren der Fahrzeugbetriebsweisen implementiert zu werden. Ein Steuersystem kann vorgesehen sein, um das Fahrzeug in einer oder mehreren Betriebsweisen oder anderes zu betreiben und zu steuern.
  • Illustratives Steuersystem
  • 1 ist ein Blockdiagramm auf hohem Niveau eines Fahrzeugsteuersystems 100 nach einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeugsteuersystem 100, das in 1 gezeigt ist, weist ein Robotersteuersystem 104 auf, bei dem das dargestellte Ausführungsbeispiel die vielseitigen Robotersteuermodule 106A106N aufweisen. Die Robotersteuermodule können miteinander verbunden sein und können miteinander und anderen Steuersystemen und Fahrzeugkomponenten über ein Kontroller Area Network (CAN) Bus 108 und ein verschaltetes Paketnetz 110, wie etwa ein Ethernetnetz kommunizieren. Bei einigen Ausführungsbeispielen wird lediglich ein geschaltetes Paketnetz 110 verwendet.
  • Das Fahrzeugsteuersystem, das in 1 gezeigt ist, weist weiter verschiedene Betriebssysteme 102A102N auf. Jedes Betriebssystem 102A102N kann in demselben Ausführungsbeispiel in direkter oder indirekter Kommunikation mit einem Robotersteuermodul 106A106N sein. Diese Betriebssysteme 102A102N können zum Steuern der Bewegung des Fahrzeugs verwendet werden und können, beispielsweise, das Lenksystem, das Bremssystem, das Drosselsystem und das Lenksystem aufweisen. Jedes Betriebssystem kann einen Aktuator aufweisen, etwa, beispielsweise, einen Motor, es kann den Betrieb des bestimmten Betriebssystems steuern. Beispielsweise kann das Bremssystem einen Aktuator beinhalten, der den Einsatz der Bremse für das Fahrzeug steuert.
  • Die Robotersteuermodule oder Robotersteuereinheiten 106A106N können weiter verbunden sein mit oder auf andere Weise Eingangssignale von Scannern 12A–B empfangen bzw. weitergeben, etwa Laserscannern, Kameras 114A–B, Funkeinheiten 116A–B und ein Global Positioning System (GPS) 118. Die Robotersteuermodule 116A–N können auch mit anderen geeigneten Nutzlasten verbunden sein und können mit einer oder mehreren CAN Einheiten 122 verbunden sein. Eine CAN Einheit kann, beispielsweise, Dachleuchten oder ähnliche Merkmale des Fahrzeugs steuern. Die Robotersteuermodule 106A–N kön nen Eingänge von diesen verschiedenen Einheiten empfangen, beispielsweise, Scanner 112A–B, Kameras 114A–B und die GPS 118 und kann das geeignete Steuerverhalten für das Fahrzeug bestimmen. Die vielseitigen Robotersteuermodule 106A–N können eine Steuerinformation oder -signale an die Betriebssysteme liefern zum Ausführen des geeigneten Steuerverhaltens. Wenn, beispielsweise, das geeignete Steuerverhalten das Stoppen des Fahrzeugs ist, kann das Robotersteuermodul 106A eine Steuerinformation aussenden, um einen Bremsaktuator des Bremsbetriebssystems 102A zu betätigen und den Einsatz der Fahrzeugbremsen verursachen.
  • Das Fahrzeug kann weiter eine Fahrzeugsteuereinheit (VCU) aufweisen. Die Fahrzeugsteuereinheit empfängt Eingänge und verwendet den Eingang zum Bestimmen, wie die Steuerung eines oder mehrere Betriebssysteme 102A–N gesteuert wird. Die Fahrzeugsteuereinheit kann, beispielsweise, einen Eingang von einem Robotersteuermodul aufnehmen, das angibt, dass das Fahrzeug nach rechts abbiegen soll. In Antwort auf dieses Signal kann die Fahrzeugsteuereinheit ein Steuersignal an das Lenksystem ausgeben, um den Aktuator zu veranlassen, die Lenkwelle zu drehen.
  • Sowohl die Fahrzeugsteuereinheit (VCU) als auch die Robotersteuermodule können jeweils einen Prozessor beinhalten. Eine Roboterfahrzeugsteuereinheit mit einem Prozessor ist in weiteren Einzelheiten in 19 beschrieben. Der Prozessor kann ein von einem Computer lesbares Medium aufweisen, etwa einen Speicher mit wahlfreiem Zugriff (RAM), der mit dem Prozessor gekoppelt ist. Der Prozessor führt von einem Rechner ausführbare Programmbefehle, die in dem Speicher gespeichert sind aus, etwa Robotersteueralgorithmen. Derartige Prozessoren können einen Mikroprozessor, einen ASIC und Statusmaschinen aufweisen. Die Prozessoren weisen auf oder können in Kombination mit Medien, beispielsweise computerlesbare Medien, die Befehle speichern, die bei ihrer Ausführung von dem Prozessor den Prozessor dazu veranlassen, die hier beschriebenen Schritte auszuführen. Ausführungsbeispiele von computerlesbaren Medien schließen ein, ohne darauf begrenzt zu sein, eine elektronisch, optische, magnetische oder andere Speicher- und Über tragungsgerät, das dazu in der Lage ist, einen Prozessor mit computerlesbaren Befehlen zu versorgen, etwa einem ausführbaren Code. Andere Beispiele von geeigneten Medien weisen, ohne darauf begrenzt zu sein, eine Floppydisk, eine DVD, eine Magnetscheibe, einen Speicher, einen ROM, RAM einen ASIC, einen konfigurierten Prozessor, alle optischen Medien, alle Magnetband- oder andere magnetische Medien oder irgend ein anderes geeignetes Medium, aus dem ein Computerprozessor Befehle lesen kann. Auch können andere Formen von computerlesbaren Medien Befehle zu einem Computer übersenden oder tragen, einschließlich einen Router, ein privates oder öffentliches Netzwerk, eine andere Übertragungseinheit oder -kanal, sowohl verdrahtet als auch drahtlos. Die Befehle können einen ausführbaren Code aufweisen in jeder geeigneten Computerprogrammiersprache, einschließlich, C, C++, C#, Visual Basic, Java, Python, Perl, und JavaScript.
  • 2A–B sind funktionelle schematische Diagramme eines illustrativen Steuersystems nach einem Ausführungsbeispiel der vorliegenden Erfindung. Das gezeigte Robotersteuersystem weist vier vielseitige Robotersteuermodule oder Roboter Control Units (RCU) und verschiedene Sensoren auf. Das Robotersteuersystem empfängt verschiedene Eingangssignale von Scannern, erzeugt eine Hinderniskarte, bestimmt die Steuerung des Fahrzeugs und sendet Steuerinformation an die Vehicle Control Unit (VCU), die verschiedene Betriebssysteme des Fahrzeugs steuert. Das Ausführungsbeispiel, das in den 3A–B gezeigt ist, weist ein Fahrzeugsteuersystem, etwa ein Fahrzeuglevelsteuerabschnitt 202 auf, der mit einem Robotersteuersystem kommunizieren kann, etwa einem Roboterebenensteuerabschnitt 204. Die beiden Abschnitte 202, 204 arbeiten als eine Hierarchie. Der Fahrzeuglevelsteuerabschnitt 202 behält die Einzigartigkeit des Fahrzeugs, für die es konfiguriert ist, bei.
  • Die Fahrzeuglevelsteuerung 202 weist eine externe Schnittstelle, einen CAN Diagnoseanschluss auf. Die Fahrzeuglevelsteuerung 202 weist weiter ein elektronisches Spannungszentrum 208 auf. Das elektronische Leistungszentrum liefert Leistung an einen Getriebe motor 210 und einen Bremsmotor 212. Der Getriebemotor 210 und der Bremsmotor 212 sind Aktuatoren für das Schaltungs- bzw. Bremssystem.
  • Der Fahrzeuglevelsteuerabschnitt 202 weist weiter eine überwachende Levelsteuereinheit (VCU 1) 214 auf. Deren Rolle könnte durch einen zusätzlichen RCU erfüllt werden. Beispielsweise kann die VCU 214 ersetzt werden durch eine zusätzliche RCU (beispielsweise die RCU #5), oder eine Kombination einiger RCUs kann ersetzt werden durch zusätzliche VCUs, obwohl eine VCU nicht alle Funktionen der hier beschriebenen RCUs haben. Der überwachende Levelkontroller 214 ist in Kommunikation mit verschiedenen Systemen des Fahrzeugs. Beispielsweise ist der überwachende Levelkontroller 214 in Kommunikation mit der Schüttmulde, Hilfslichtern und einer Hupe 216. Der überwachende Levelkontroller 214 ist weiter in Kommunikation mit dem Getriebemotor 210 und dem Bremsmotor 212.
  • Der Fahrzeuglevelsteuerabschnitt 202 weist weiter ein APECSTM Kontroller 218 zur Drosselsteuerung und zur Diagnose auf. Deren Aufgabe könnte von einer zusätzlichen RCU erfüllt werden. Die APECSTM Kontroller 218 ist in Kommunikation mit dem Drosselaktuator 220. Die APECSTM Kontroller 218 liefert Aktuatorsignale zu und empfängt eine Rückkopplung von dem Drosselaktuator 220.
  • Der Fahrzeuglevelsteuerabschnitt 202 weist weiter einen Armaturenbrettkontroller 222 auf. Der Armaturenbrettkontroller 222 sorgt für eine Steuerung eines Betriebsweiseschalters 224 und für Scheinwerferleuchten und Standlichtleuchten 226. Der Fahrzeuglevelsteuerabschnitt 202 weist weiter den Steuerungsaktuator 228 auf.
  • Der Roboterlevelsteuerabschnitt 204 weist externe Schnittstellen auf. Die externen Schnittstellen des Robotersteuerabschnitts 204, die in 3A gezeigt ist, weist eine rückwärtige Nutzlast CAN Schnittstelle 230 und eine rückwärtige Nutzlast Ethernet-Schnittstelle 232 auf. Die externen Schnittstellen weisen weiter eine vordere Nutzlast CAN Schnittstelle 234 und eine Ethernetschnittstelle 236 auf.
  • Der Roboterlevelsteuerabschnitt 204 entsprechend dem in 2A gezeigten Ausführungsbeispiel weist vier Robotersteuermodule auf: ein Überwachungsrobotersteuermodul 238, ein rückwärtiges Wahrnehmungsrobotersteuermodul 244, ein nach vorne gerichtetes Wahrnehmungssteuermodul 254 und eine Kamera und ein Lenkrobotersteuermodul 262 auf. Die Robotersteuermodule 238, 244, 254 und 262 können identisch konfiguriert sein und können für bestimmte Funktionen konfiguriert sein. Wenn die Robotersteuermodule identisch konfiguriert sind, können die Robotersteuermodule basierend auf dem Ort, in dem System oder die Verbindung bestimmen, welche Funktion oder Rolle sie auszuführen haben. Beispielsweise kann ein Widerstand in Verbindung mit einem Robotersteuermodul angeordnet sein und basierend auf dem Widerstand bestimmt das Robotersteuermodul seine jeweilige Funktion. Andere Wege zum Identifizieren der Funktion der Rolle eines Robotersteuermoduls können verwendet werden.
  • Verschiedene Elemente des Fahrzeuglevelsteuerabschnitts 202 sind in Kommunikation mit Elementen des Roboterpegelsteuerabschnitts 204. Beispielsweise ist das Überwachungsroboterlevelsteuermodul (RCU #1) 238 in Kommunikation mit dem elektronischen Leistungszentrum 208, dem APECSTM Kontroller 218 und dem Armaturenbrettkontroller 222. Das Überwachungsroboterlevelsteuermodul 238 empfängt Eingangssignale von verschiedenen Sensoren und erzeugt Befehle zur Operation eines Fahrzeugs in einer autonomen Weise. Die US Patentanmeldung Nr. 10/972,082; 10/971,718 und 10/98'71,724 beschreiben beispielhafte autonome Weisen und deren Steuerung.
  • Bei dem in 2A gezeigten Ausführungsbeispiel empfängt das Überwachungsroboterlevelsteuermodul 238 ein Signal von einer GPS Navigation/Kommunikationsmodul oder -einheit 240 (von, zum Beispiel, NAVCOM Technologie, Torrance, Kananda) und von einem Kompass 242. Diese Sensoren liefern Positions- und Kopfinformation zu dem Kontroller 238 für Navigationszwecke. Ausführungsbeispiele der vorliegenden Erfindung können auch andere Sensoren aufweisen. Beispielsweise weist ein Ausführungsbeispiel eine Trägheitsmessungseinheit (IMU) auf, die die Beschleunigung des Fahrzeugs in jeder Rich tung misst. Das Überwachungsroboterlevelsteuermodul 238 ist ebenfalls in Kommunikation mit dem rückwärtigen Wahrnehmungssteuerungsmodul (RCU #3) 244. Das rückwärtige Wahrnehmungssteuermodul 2224 kann Sensoreingänge von, beispielsweise, einem Laserscanner 252, etwa einem SICK Laserscanner, über eine RS422 Verbindung empfangen.
  • Das rückwärtige Wahrnehmungssteuermodul 244 ist auch in Kommunikation mit einem Paar von Radioempfängern, einem Nova RoamTM EH 900, einem Radio 1 246 und einem 802.11b-kompatiblen Radio, Radio 248. Diese Radios erlauben es, dem rückwärtigen Wahrnehmungssteuermodul 244 Befehle von einer Operatorsteuereinheit (OCU) 250 aufzunehmen. Die OCU kann, beispielsweise, für eine Fernbedienung des Fahrzeugs in einer autonomen Weise verwendet werden.
  • Das Überwachungsroboterlevelsteuermodul 238 in dem in 2A gezeigten Ausführungsbeispiel ist weiter in Kommunikation mit dem nach vorne gerichteten Wahrnehmungssteuermodul 254. Das nach vorne gerichtete Wahrnehmungssteuermodul 254 ist in Kommunikation mit einer Armaturbrettbetriebssteuereinheit (OCU) 256. In dem dargestellten Ausführungsbeispiel weist die Armaturbrett OCU 256 ein TDS Recon IPAQTM auf, eine Art eines Personal Digital Assistant. Das nach vorne gerichtete Wahrnehmungssteuermodul 254 ist auch in Kommunikation mit einem nach vorne gerichteten Laserscanner 260. Bei einem Ausführungsbeispiel ist der nach vorne gerichtete Laserscanner 260 ein Laserscanner vom nickenden Typ und weist einen Laserscannermotor 258 auf, der die Bewegung des Scanners 260 steuert. Das nach vorne gerichtete Wahrnehmungssteuermodul 254 sendet Steuersignale zum Steuern des Laserscannermotors 258 aus.
  • Das überwachende Roboterlevelsteuermodul 238 ist weiter in Kommunikation mit einem Kamera- und Steuerungskontroller (RCU #4) 262. Der Kamera- und Lenkungskontroller 262 ist in Kommunikation mit einer Rückwärtsfahrbetriebskamera 264 und einer Vorwärtsfahrbetriebskamera 268. Der Kamera- und Lenkungskontroller 262 ist weiterhin Zweiweg Kommunikation mit dem Lenkungsaktuator 228 und dem überwachenden Fahrzeuglevelkontroller 214 des Fahrzeugsteuerabschnitts 202.
  • Das Layout der verschiedenen Kontroller und Sensoren, die in den 3A–B gezeigt sind, können in einer Vielzahl von Art und Weisen in Ausführungsbeispielen der vorliegenden Erfindung implementiert sein. Beispielsweise können die verschiedenen Kontroller kombiniert sein oder aufgeteilt sein in verschiedener Art und Weise Abhängigkeit von der Anzahl und der Typen der verwendeten Sensoren und Abhängigkeit von der Konfiguration des Fahrzeugs. Auch können verschiedene Sensoren und Instrumente auf unterschiedliche Weise verwendet werden. So können Ausführungsbeispiele der vorliegenden Erfindung eine Sensorvereinigung verwenden, um effizient zu arbeiten. Eine Sensorvereinigung erlaubt ein Betrieb des Fahrzeugs auch dann, wenn bestimmte Sensoren nicht arbeiten.
  • 2C zeigt ein weiteres Ausführungsbeispiel einer Fahrzeuglevelsteuerung 150 in Kommunikation mit einer Roboterlevelsteuerung 204 von 2C. Bei diesem Ausführungsbeispiel ist eine Überwachungssteuereinheit (VCU) 154 vorgesehen, die der Überwachungsfahrzeuglevelsteuerung (VCU 1) von 2B entspricht. Die Überwachungs VCU 154 kann Steuersignale aussenden, auch als „Digital with Direction" in anderen Ausführungsbeispielen bezeichnet, an die Schüttmulde, den Signalgeber und die Signallichter 156 bezeichnet. Ein Überwachungs VCU 154 kann Steuersignale von dem Betriebsschalter 158 empfangen. Die Überwachungs VCU 154 empfängt weiter Rückkopplungssignale, bezeichnet als „Rückkopplungsschleife" in anderen Ausführungsbeispielen, von jedem der Odometriesensoren 160, dem Gangschaltungsaktuator 164, dem Bremsaktuator 166 und der Kraftstoffpumpe 172. Bei dem Ausführungsbeispiel von 2C ist ein gesonderter Odometriesensor 160 vorgesehen. Bei anderen Ausführungsbeispielen werden der Gangschaltungsaktuator 164, der Bremsaktuator 166 und die Kraftstoffpumpe 172 als austauschbar als Getriebemotor, Bremsmotor bzw. Drosselaktuator bezeichnet. Die Fahrzeuglevelsteuerung 150 hat ein Lastzentrummodul 162, als „Leistungszentrum" in anderen Ausführungsbeispielen bezeichnet wird. Das Lastzentrummodul 162 ist an einer CAN Kom munikation mit der Roboterlevelsteuerung 204 und sendet weiter Steuersignale an den Gangschaltungsaktuator 164, den Bremsaktuator 166 und den Scheinwerfer/Standlicht-Leuchten 168. Schließlich kann die Fahrzeuglevelsteuerung 150 eine Maschinenkontrollereinheit oder eine ECU 170 aufweisen, in anderen Ausführungsbeispielen auch als „Drosselsteuerung" bezeichnete. Die ECU 170 ist in CAN Kommunikation mit der Roboterlevelsteuerung 204 und steuert die Kraftstoffpumpe 172 zum Liefern von Kraftstoff zu der Maschine.
  • Bei einem Ausführungsbeispiel ist das Fahrzeug mit einem Hindernisserkennungs/Hindernissvermeidungs(ODOA)-System ausgerüstet, von dem Ausführungsbeispiele im Folgenden beschrieben werden, das dazu ausgebildet ist, zu dem Fahrzeug externe Hindernisse zu erkennen und richtige Steuerungsaktionen zu initiieren, um diese zu vermeiden.
  • Robotersteuermodul
  • Bestimmte Robotersteuermodule entsprechend Ausführungsbeispielen der vorliegenden Erfindung können einen oder mehrere Prozessoren und zugehörige Speicher aufweisen, etwa einen einzigen Bordcomputer mit einem Mikroprozessor, einem Netzwerkschalter wie einen Ethernetschalter, einen Aktuatorcontroller, etwa einen umprogrammierbaren Motorcontroller, einen Aktuatorverstärker, etwa einen Motorverstärker, und eine Spannungsversorgung in einem einzigen montierbaren Gehäuse.
  • Wie im Folgenden anhand der 1928 gezeigt, kann ein ausführbarer Code in dem Speicher des Robotersteuermoduls gespeichert sein, der von einer CPU ausgeführt werden kann, um das Robotersteuermodul dazu in die Lage zu versetzen, Robotersteuerverläufe auszuführen und diese zu lenken. Jedes Robotersteuermodul in dem Robotersteuersystem kann mit mehreren ausführbaren Codeteilen für unterschiedliche modulare Aufgaben innerhalb des Steuersystems ausgebildet sein. Zum Beispiel kann jedes Robotersteuermodul einen ausführbaren Code für eine Überwachungsaufgabe für eine Aktuatorsteuerung, für ein Sensorbeobachten usw. einschließen. Das Steuermodul kann konfigurierbar sein um nur einen ausgewählten Teil des geeigneten Codes auszuführen, das für die Aufgabe des bestimmten Robotersteuermoduls geeignet ist.
  • Beispiele der Teile des ausführbaren Codes können ein Verlauflenkungscode, ein Verlaufscode, ein Sensorantriebscode, ein Antriebssteuercode, ein Aktuatrosteuercode, ein Datenmanagementcode, ein Datenbasiscode und ein Datenkonvertercode sein. Jedes Robotersteuermodul kann die Funktion oder die Aufgabe, die es ausführen will, bestimmen und welcher ausführbare Code basierend auf dem Ort, den Verbindungen und anderen geeigneten Verfahren, wie oben beschrieben, es ausführen will. Dies erlaubt eine Austauschbarkeit der Robotersteuermodule.
  • 19 zeigt ein Ausführungsbeispiel einer einzigen Bordcomputer (SBC) Softwarearchitektur für eine Robotersteuereinheit. Die SBC 1900 weist einen Prozessor 1902 und eine Netzwerkverbindung 1904 auf. Die Netzwerkverbindung 1904 kann eine oder mehrere Netzwerkverbindungen sein. Beispiele derartiger Netzwerkverbindungen 1904 weisen Ethernet TCP/IP, USB und CAN Verbindung auf wie J1939.
  • Die Netzwerkverbindungen 1904 sind zum Verbinden mit einer Mehrzahl von Geräten außerhalb des SBC 1900 eingerichtet, so dass das SBC 1900 eine Mehrzahl von Arten von Daten und/oder Steuersignalen empfangen und aussenden kann. Die RCU kann weiter ein computerlesbares Medium aufweisen, etwa ein Speicher 1906. Der Speicher 1906 kann jede Art eines Speichers sein. Beispiele des Speichers 1906 weisen einen Speicher mit wahlfreiem Zugriff („RAM") einen Nur-Lese-Speicher („ROM") einen optischen Speicher und einen magnetischen Speicher auf. Der Speicher 1906 kann eine Datenspeicherung und/oder eine dauerhafte Datenspeicherung aufweisen zum Speichern von verschiedenen empfangenen oder berechneten Daten und einem ausführbaren Code. Beispiele derartiger Daten und/oder Steuersignale, die von dem SVC 1900 empfangen worden sind, weisen Laserscannerbereichsdaten GPS Positionsdaten, Kompassausrichtungsdaten, Fernbedienungsbefehle von einer entfernten Operatorsteuereinheit (OCU), Armaturenbrettdisplaystatus und -eingang, Softwareupgrades, Fahrzeugstatusinformation, Fahrzeugbetriebsartschalter und Diagnosekommandos von CAN Diagnoseanschlüsse auf. Beispiele derartiger Daten und/oder Steuersignale, die von dem SBC 1900 übertragen worden sind, weisen telemetrische Daten an einen entfernten OCU, Armaturenbrettdisplaybefehle, Softwareupdates zu anderen RCUs, Dateien, Antriebsbefehle an eine Fahrzeugsteuereinheit und Diagnoseantworten an einen CAN Diagnoseanschluss auf.
  • Wie in weiteren Einzelheiten unten unter Bezugnahme auf die 2028 beschrieben werden wird, weisen Beispiele eines ausführbaren Codes, ein Betriebssystem, wie beispielsweise BlueCat Linux, einen Datentransport, der eine Software aufweist, wie beispielsweise iRobot AWARETM zum Unterstützen des SBC 1900 bei dem Kommunizieren mit äußeren Einheiten und/oder Anwendungen 1908 auf. Die Applikationen 1908 können einen oder mehrere RCU funktionelle Codes und Betriebsverhalten aufweisen. Beispielsweise können die Applikationen 1908 einen Konfigurationscode 1910 aufweisen, der Konfigurationsdaten von einer Speicherung, etwa einer dauerhaften Speicherung, liest, und diese Werte in geeignete Orte in den Datentransport einbringt.
  • Die Applikationen 1908 können weiter eine Hinderniskarte, Erkennungs- und/oder Vermeidungscode 1912 aufweisen. Die Hinderniskarte und der Erkennungscode können Eingangsbereich- oder Odometriedaten empfangen und eine zweidimensionale Hinderniskarte konstruieren. Der Hindernisvermeidungscode kann Bahnen von einem Betriebslenker 1920 aufnehmen und Hindernisdaten von der zweidimensionalen Hinderniskarte und diese Bahnen entsprechend den Hindernisvermeidungsregeln bewerten.
  • Andere Applikationen 1908 können einen Fernbedienungscode 1914 aufweisen, der Eingangsbefehle von einer entfernten OCU empfängt und einen Bahnsatz zur Verwendung durch einen Betriebslenker 1920 und verschiedene diskrete Werte ausgibt. Die Applikatio nen 1908 können weiter einen Folgebetrieb 1916 oder halbautonomen Betrieb aufweisen, der Hindernisdaten von der Hinderniskarte zum Orten eines Zieles oder eines Objekts, dem zu folgen, empfängt ist und einen Bahnsatz zur Verwendung durch den Betriebslenker 1920 ausgibt. Ein Wegpunktnavigationscode 1918 kann weiter in die Applikation 1908 eingebunden sein. Der Wegpunktnavigationscode 1918 kann Eingabewegpunktwerte von einem gewählten Pfad einer Ausgabe eines Bahnsatzes zur Verwendung durch den Betriebslenker 1920 empfangen. Der Betriebslenker 1920 kann mit Applikationen 1908 versehen sein zum Empfangen von Eingangsbahnsätzen und Prioritäten von verschiedenen Betriebsverläufen, Hindernisdaten von der Hinderniskarte und Konfigurationsdaten von verschiedenen Konfigurationspublikationen. Der Betriebslenker 1920 kann auch ausgewählte Bahndaten zu Aktuatoren oder anderen Geräten außerhalb des SBC 1900 ausgeben.
  • Die Applikationen 1908 können weiter einen Datenloggingcode 1922 aufweisen, der Statusdaten von Fahrzeugsensoren aufnimmt und Daten in einen Datenspeicher schreibt, etwa einen dauerhaften Datenspeicher. Nach dem Empfangen eines Operatorbefehls kann der Datenloggingcode 1922 Daten drahtlos oder über eine Drahtleitung an ein OCU oder eine entfernbare Datenspeichereinheit kopieren. Diese Applikationen können eine Wegaufzeichnung und einen Wegrückspielcode 1924 aufweisen. Der Bahnaufzeichnungscode kann Fahrzeugsensoren und Eingaben von einem Operator empfangen und diese Daten, etwa Wiedergaben von Fahrtwegpunkten, zur Datenspeicherung einschreiben, etwa einem dauerhaften Datenspeicher. Der Pfadrückspielcode kann einen Pfad empfangen, wie er von einem Operator vorgegeben worden ist und kann die Wegpunkte, die in diesen Weg eingeschlossen sind, an die Wegpunktnavigation abspielen.
  • Die Applikation 1908 kann weiter einen Telemetriecode 1926 aufweisen, der Statusdaten von Fahrzeugsensoren empfangen und Pakete an eine entfernte ODU aussenden kann. Eine Armaturenbrettdisplaysteuerung 1928 kann weiter an der Applikation eingeschlossen sein, die Statusdaten von Fahrzeugsensoren und Eingaben von einem Tastaturdisplay empfangen kann und Displaybefehle an das Armaturenbrettdisplay ausgeben kann.
  • Diese Applikationen 1908 können auch einen Versionsupgrademanager 1930, eine VCU-Schnittstelle 1932 und eine Bereichsschutzapplikation 1934 aufweisen. Der Versionsupgrademanager 1930 kann Softwareupgrades empfangen und Softwareupgrades über andere RCUs verteilen. Die VCU Schnittstelle 1932 kann Betriebs- und Diagnosebefehle empfangen und Betriebsbefehle an die VCU an geeignete CAN Botschaften aussenden und Diagnosebotschaften an andere RCUs aussenden und deren Berichte an die VCU zurückgeben. Die Bereichsschutzapplikation 1934 kann Unterbrechungen der Hindernisdaten von dem Laserscanner erkennen und Ersatzdaten ausgeben, die in jede Richtung nah sind, die von den Laserscannern erkannt werden können.
  • Die 2028 zeigen bestimmte Ausführungsbeispiele einer RCU softwarearchitektur die Applikationsebenenfunktionen ausführen und Softwaremodule für den gegenwärtigen Applikationsbereich aufweisen und Softwaremodule für andere Applikationsbereiche. 20 zeigt eine Hinderniskarte/Erkennung RCU Softwarearchitektur 2000. Die RCU Softwarearchitektur weist eine Applikationsebene 2002 auf, die eine oder mehrere Applikationen aufweisen kann, etwa eine Hinderniskarte/Detektionsapplikation 2004, eine Datentransportebene 2006, eine Betriebssystemebene 2008 und eine Datenspeicher/Netzwerkverbindungsebene 2010. Das Betriebssystem 2008 kann ein Betriebssystem aufweisen, etwa ein Linux Betriebssystem. Die Datenspeicherungs/Netzwerkverbindungsschicht 2010 kann eine Datenspeicherung wie eine dauerhafte Datenspeicherung aufweisen und eine oder mehrere Netzwerkkonnektoren wie CAN, USB und Ethernet.
  • Bei dem in 20 dargestellten Ausführungsbeispiel wird die Hinderniskarten/Detektionsapplikation 2004 durch Empfangsbereichsdaten von einem vorderen Laserscanner 2012 und einem rückwärtigen Laserscanner 2014 über eine TCP Verbindung ausgeführt. Die Bereichsdaten werden durch einen 3D-zu-2D Hindernisdetektor 2018 über eine FIFO Flusskontrolle empfangen. Ein 3D-zu-2D-Hindernisdetektor 2018 empfängt weiter Odometriedaten von einer VCU Schnittstelle 2016 über einen geteilten Speicher. Die Odometriedaten können Geschwindigkeitsdaten aufweisen, die dem Fahrzeug zugehörig sind.
  • Der 3D-zu-2D-Hindernisdetektor 2018 empfängt die Bereichsdaten und die Odometriedaten zur Erzeugung eine 2D Hinderniskarte 2020.
  • 21 zeigt ein Ausführungsbeispiel einer Fernbedienung die ausgeführt wird in einem RCU 2100. Die Fernbedienungsapplikation 2104 kann Eingangsdaten von einem entfernten OCU aufnehmen und einen Bahnsatz für einen Betriebsarbiter ausgeben und verschiedene diskrete Werte. Die Fernbedienungsapplikation 2104 kann durch Empfangen von Fernbedienungsbefehlen diskrete Daten von einem entfernten OCU über einen Ethernetkonnektor und ein Protokoll ausführen, etwa ein Verwendetdatagrammprotokoll (UDP) bei einer diskreten Fernbedienung 2116. Die diskrete Fernbedienung 2116 kann Befehle von dem OCU empfangen und diese als Daten für diskrete Befehle wie Gänge, Folgeverhalten, Ein/Aus, Starter, Brennstoffunterbrechung, Hupe, Missachten der Hindernisvermeidung, Umkehrwegaufzeichnung Ein/Aus, Hinzufügen von Punkten zu gegenwärtigem Pfad, Auswählen Pfad zum Rückspielen und Rückspielpfad in umgekehrter Reihenfolge. Ein Fernbedienungsverlauf 2118 empfängt einen Fernbedienungsbefehlstrom von einer entfernten RCU 2114 über einen Ethernetverbinder und UDP. Das Fernbedienungsverhalten 2118 gibt einen Bahnsatz basierend auf dem Kommandostrom 2114 an einen Betriebsarbiter 2120 aus.
  • 22 zeigt ein Ausführungsbeispiel eines folgenden (halb-autonomer Betrieb) Ausführung in einer RCU Softwarearchitektor 2200. Die RCU Architektur 2200 weist eine Applikationsebene 2202 auf, die eine folgende (halb-autonomer Betrieb) 2204 Applikation hat, die Hindernisdaten von der Hinderniskarte aufnehmen kann, um einen Leiter zu lokalisieren und einen Bahnsatz zur Verwendung von dem Betriebsarbiter zu verwenden. Das Folgen (halb-autonomer Betrieb) 2204 führt durch Einschließen eines Folgeverhaltens 2216 eine Funktion aus, die Daten von einer Antriebskonfiguration 2212 und einer 2D Hinderniskarte 2214 über einen geteilten Speicher aufnimmt. Das Folgeverhalten 2216 empfängt weiter ein Folgeverhalten, etwa von einem Betriebssystem 2208 oder von einem außen liegenden Gerät, etwa einem OCU. Das Folgeverhalten 2216 erzeugt einen Bahnsatz basierend auf den empfangenen Daten und erzeugt einen Bahnsatz für den Betriebsarbiter 2218.
  • 23 zeigt ein Ausführungsbeispiel einer Wegpunktnavigation (autonomer Betrieb), die ausgeführt wird in eine RCU Softwarearchitektur 2300. Die RCU Softwarearchitektur 2300 weist eine Applikationsebene 2302 auf, die eine Wegpunktnavigation (autonomer Betrieb) Applikation 2304 aufweist, die Eingangswegpunktwerte von einem ausgewählten Weg aufnehmen kann und einen Bahnsatz zur Verwendung von einem Betriebsarbiter 2322 ausgeben kann. Die Wegpunktnavigationsausführung nimmt Wegpunkte von einem entfernten OCU 2312 über eine Ethernetverbindung und einem TCP Verbindungsprotokoll zu einer Wegpunktlistenmanager 2320 über ein FIFO auf und GPS Daten von einem GPS 2314 über die Ethernetverbindung und ein UDP Protokoll zu einem Wegpunktverlauf. Der Wegpunktlistenmanager 2316 empfangt weiter Wegpunkte von einem Pfadmanager 2316 über das FIFO. Der Wegpunktlistenmanager 2316 nach einigen Ausführungsbeispielen weist nur einen Eingabe FIFO auf und sowohl der Manager 2316 als auch der entfernte OCU 2312 schreiben in den FIFO Eingang. Der Wegpunktlistenmanager 2320 schafft Wegpunktdaten zu einem Wegpunktverlauf 2322 über das TCP. Der Wegpunktverlauf 2322 empfängt Odometriedaten von einer VCU Schnittstelle 2318 über UDP und erzeugt einen Bahnsatz der an einem Antriebsarbiter vorgesehen ist.
  • 24 zeigt ein Ausführungsbeispiel einer Hindernisvermeidung, ausgeführt in einer RCU Softwarearchitektur 2340. Die RCU Softwarearchitektur 2400 weist eine Applikationsebene 2402 auf, die eine Hindernisvermeidungsapplikation 2404 aufweist. Die Hindernisvermeidungsapplikation 2404 kann Eingangsbahnen von einem Antriebsarbiter 2418 und Hindernisdaten von einer 2D Hinderniskarte 2414 aufnehmen und die Bahnen entsprechend den Hindernisvermeidungsregeln bewerten. Die Hindernisvermeidungsapplikation 2404 weist einen Hindernisvermeidungsverhaltenscode 2416 auf, der Daten von einer 2D Hinderniskarte 2414, Konfigurationsdaten von einer Antriebskonfiguration 2412, ein Hindernisvermeidungsverhalten von einem Betriebssystem 2408 und/oder einer außenliegenden Einheit, etwa einem RCU und einen Eingangsbahnensatz von dem Antriebsarbiter 2418 empfangt. Der Hindernisvermeidungsverhaltenscode 2416 bewertet die Bahnsätze basie rend auf den Konfigurationsdaten, den Hinderniskartendaten und dem Hindernisvermeidungsverhalten und liefert den Bahnsatz an den Antriebsarbiter 2418.
  • 25 zeigt ein Ausführungsbeispiel eines Antriebsarbiters der eine RCU Softwarearchitektur 2500 ausführt. Die RCU Softwarearchitektur 2500 weist eine Applikationsebene 2502 auf mit Applikationen, etwa einem Antriebsarbiter 2504. Der Antriebsarbiter 2504 kann Bahnsätze und Prioritäten von verschiedenen Verläufen, Hindernisdaten aus der Hinderniskarte und Konfigurationsdaten aus verschiedenen publizierten und ausgegebenen ausgewählten Bahnsätzen beinhalten. Ausführungsbeispiele des Antriebsarbiters können zwischen 10 und 100 Hz arbeiten. Bei einem Ausführungsbeispiel arbeitet der Betriebsarbiter bei 20 Hz. Die Betriebsarbiterapplikation 2504 weist einen Antriebsarbitercode 2520 auf, der Bahnsätze von einer Mehrzahl von Funktionen empfängt wie einem Hindernisvermeidungsverhalten 2512, Wegpunktnavigation (autonomer Betrieb) Verhalten 2516, Folgeverhalten (halb-autonomer Betrieb) Verhalten 2514 und Fernbedienungsverhalten 2518 über gemeinsame Speicher oder anders. Der Antriebsarbiter 2520 empfängt weiter Plattformdaten über den gemeinsamen Speicher von einem Betriebssystem 2508 oder einem außenseitigen Gerät. Basierend auf den empfangenen Daten kann der Antriebsarbiter 2520 Geschwindigkeits- oder andere Befehle erzeugen und den Befehl an eine VCU Schnittstelle 2520 anlegen. Die VCU Schnittstelle 2522 kann die Befehle über ein VCU oder anders kommunizieren.
  • 26 zeigt ein Ausführungsbeispiel einer Pfadaufzeichnungsausführung in einer RCU Softwarearchitektur 2600. Die RCU Softwarearchitektur 2600 weist eine Applikationsebene 2620 auf mit einer Pfadaufzeichnungsapplikation 2604. Die Pfadaufzeichnungsapplikation 2604 kann Ortsdaten von den Fahrzeugsensoren aufnehmen und Eingaben von einem Operator und Daten in einen dauerhaften Datenspeicher einschreiben, der die Wegpunkte für einen Pfad darstellt. Beispielsweise kann der Pfadmanagercode 2618 vorgesehen sein, der Befehle von einem entfernten OCU 2612 und/oder Armaturenbrettdisplay 2614 über eine Ethernetverbindung aufnehmen kann. Die Befehle können neue Pfade aufzeichnen, Wegpunkt aufzeichnen, neue Pfade löschen und neue Pfade sichern. Der Pfadmanagercode 2616 kann weiter GPS Daten von einem GPS 2612 und Datennamen und Typen von dauerhaften Datenspeicherungen einschließlich Datenspeicher/Netzwerkverbindungsschicht 2610 aufnehmen. Der Wegmanager 2518 kann Daten aussenden wie eine Anzahl von existierenden Pfadwegen, Namen von existierenden Pfaddateien, Namen einer Pfaddatei, die gegenwärtig verwendet wird und einen Pfadmanagerzustand zu einer Datentransportebene 2606. Der Pfadmanager 2618 kann weiter Wegpunktdaten über einen Filter 2622 an einen dauerhaften Datenspeicher aussenden.
  • 27 zeigt ein Ausführungsbeispiel einer Pfadrückspielung, die in einer RCU Softwarearchitektur 2700 ausgeführt wird. Die RCU Softwarearchitektur 2700 weist eine Applikationsebene 2702 auf, die Applikationen aufweisen kann, etwa eine Pfadrückspielapplikation 2704. Die Pfadrückspielapplikation 2704 kann einen Pfad empfangen, der durch einen Operator ausgebildet wird und die Wegpunkte, die den Weg zu einer Wegpunktnavigation einschließen, abspielen. Beispielsweise kann der Pfadmanagercode 2716 Befehle empfangen, wie einen abgespielten Pfad und Pfadnamen von einem entfernten OCU 2712 und/oder Armaturenbrett OCU, wie einem Armaturenbrettdisplay 2714. Der Pfadmanager 2716 kann auch Dateinamen und -typen von einem dauerhaften Speicher empfangen. Der Datenmanager 2716 kann Wegpunkte zu einem Armaturenbrettlistenmanager 2718 erzeugen, der mit einer Wegpunktnavigationsapplikation (nicht gezeigt) kommunizieren kann.
  • 27 zeigt ein Ausführungsbeispiel einer VCU Schnittstelle, die in einer RCU Softwarearchitektur 2800 ausgeführt wird. Die RCU Architektur 2800 kann eine Applikationsebene 2802 aufweisen mit Applikationen, etwa einer VCU Schnittstelle 2804. Die VCU Schnittstellenarchitektur 2804 kann Betriebs- und Diagnosebefehle empfangen und Betriebskommandos über ein VCU über eine geeignete CAN Botschaft aussenden, Diagnosebotschaften zu anderen RCUs aussenden und Berichte an den VCU zurückgeben. Die VCU Schnittstellenapplikation 2804 kann einen VCU Treiber 2816 beinhalten, der Konfigurationsdaten von einer Konfiguration 2812 aufnimmt und Geschwindigkeits- oder andere Fahrzeugbe fehle von einem Betriebsarbiter 2814 und Odemetriedaten und/oder andere Statusdaten an eine Datentransportebene 2806 und CAN Befehle an einen VCU über einen CAN Konnektor und eine Datenspeicher/Netzwerkverbindungsschicht 2810 aussenden. Der VCU Treiber 2816 kann weiter Statusinformationen von der VCU über die CAN Konnektion empfangen.
  • Illustratives Fahrzeug
  • Ausführungsbeispiele der vorliegenden Erfindung können in einer Vielzahl von Fahrzeugen verwendet werden, etwa Automobilen, Lastwagen, Lieferwagen und jedem anderen geeigneten autonomen Fahrzeug. Wie oben beschrieben, können mehrere Robotersteuermodule in einem Robotersteuersystem eines Fahrzeugs oder einer mobilen Plattform verwendet werden. Die Robotersteuermodule können gemeinsam arbeiten, beispielsweise, wie unter Bezugnahme auf die 1 und 2A–B gezeigt, um die Verarbeitung und das Rechnen des Robotersteuersystems zu verteilen.
  • Die 3 und 4 sind Draufsichten auf ein illustratives Fahrzeug nach einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeug 300, das in den 3 und 4 gezeigt ist, ist ein sechsrädriges, mit Diesel betriebenes Gebrauchsfahrzeug, etwa ein John DeereTM GatorTM (www.deere.com). Es ist zu beachten, dass die 3 und 4 das Fahrzeug 300 zeigen mit einer Maschine 316 und mit einer Schüttmulde am rückwärtigen Teil, wobei die Schüttmulde am rückwärtigen Teil des Fahrzeugs 300 entfernt ist. Ausführungsbeispiele der vorliegenden Erfindung schaffen ein verteiltes Robotersteuersystem für ein Roboterfahrzeug, etwa das Fahrzeug 300 oder eine mobile Plattform, die eine Roboterplattform beinhaltet mit einem Körper und einer Maschine oder Motor 316, die mit einem Antrieb versehen ist, einen definierten Satz von Robotersteuerroutinen, die ausgewählt sind aus einer Verhaltensarbitration und Verläufen; Sensortreibern, Antriebs/Aktuatorcontrollern, Datenbasismanagement und Datenbasis oder Datenwandlern. Das Fahrzeug kann auch eine Mehrzahl von austauschbar montierbaren Modulen 238, 244, 254, 262 haben, jedes aus tauschbar montierbare Modul 238, 244, 254, 262 weist einen Spannungseingang, eine Mehrzahl von Netzwerkkonnektoren und einen Mehrstift-Konnektor auf, der von außerhalb des austauschbar montierbaren Moduls zugänglich ist und jedes austauschbar montierbare Modul weist eine Mikroprozessorplatine auf mit einem einen Code ausführenden dynamischen Speicher (beispielsweise SDRAM). Die Mikroprozessorplatine kann weiter eine Mehrzahl von Protokolltransceivern aufnehmen. Der Mehrstift-Konnektor kann in der Lage sein zum Kommunizieren mit der Mehrzahl von Protokolltransceiversensoren. Die Mikroprozessorplatine kann weiter einen nicht-flüchtigen Speicher mit einem ausführbaren Code aufweisen. Jede Mikroprozessorplatine eines austauschbar montierbaren Moduls kann konfigurierbar sein, um einen ausgewählten Teil eines ausführbaren Codes auszuführen. Ein Paketnetzwerkschalter kann auch vorgesehen sein. Jeder aus der Mehrzahl von Netzwerkkonnektoren kann in der Lage sein zum Verbinden eines Paketnetzwerks, das über den Körper verteilt ist und mit dem Paketnetzwerkschalter kommuniziert. Das Paketnetzwerk kann dazu in der Lage sein Befehle zu oder von einer Mikroprozessorplatine weiter zu geben. Die Mehrzahl von Mikroprozessorplatinen kann mit Befehlen zum Laden und Ausführen von diskreten aus einer Mehrzahl von definierten Sätzen von Robotersteuerroutinen versehen sein, wie in unterschiedlichen Softwarearchitekturen unterschiedlicher RCUs in den 1928 gezeigt, derart, dass der definierte Satz von Robotersteuerroutinen unter der Mehrzahl von austauschbar montierbaren Modulen ausgeführt wird.
  • Die Robotersteuermodule, Systeme und Verfahren, wie sie hier beschrieben werden, sind jedoch allgemein angewendet durch eine einfache Mechanik von einer RCU 238, 244, 254 oder 262 pro Aktuator unter Verwendung der verfügbaren RCUs 238, 244, 254, 262 sodann für Sensoren, Berechnung und Kommunikationen. Zusätzliche RCUs können hinzugefügt werden für zusätzliche Sensoren, Berechnungen oder Kommunikationen ohne Betreiben eines Aktuators. Die RCUs 238, 244, 254, 262 können zum Steuern lediglich von Sensoren, Berechnung und/oder Kommunikationen verwendet werden. Dies gilt für jedes Fahrzeug jeder Größe oder Konfiguration, einschließlich kleiner elektrischer Fahrzeuge mit lediglich einem oder zwei Aktuatoren, (d. h., rahmengesteuert) und landwirtschaftlichen oder Baufahrzeugen mit viel mehr (beispielsweise einem Aktuator für jede Steuerung bei einem Fahrzeug mit komplexer Konstruktion). Die RCUs 238, 244, 254, 262 sind vernetzt und arbeiten auf dieselbe Weise wie hier diskutiert.
  • Das illustrative Fahrzeug 300 weist ein Robotersteuersystem mit einer Anzahl von Robotersteuermodulen 238, 244, 254, 262 auf, die jeweils in einem montierbaren Gehäuse beinhaltet sind, das verwendet werden kann zum Steuern des Betriebssystems, etwa einem Drosselsystem, einem Lenksystem, einem Bremssystem und einem Schaltsystem. Bei diesem Ausführungsbeispiel sind die Robotersteuermodule 238, 244, 254, 262 in Leerräumen in dem Fahrzeug über das Fahrzeug verteilt. Räume können existieren als Fahrgasträume, die nicht verwendet werden in dem Fahrzeug vor der Installation des Robotersteuersystems (wie in den 34 gezeigt). Auf diese Weise wird wertvoller Raum für Personen oder Nutzlast nicht von den Elektroniken des Robotersteuersystems beansprucht. Das Robotersteuermodul 1 238 ist beispielsweise in dem Maschinenraum 302 des Fahrzeugs 300 positioniert. Ein Wärmeschild 304 kann verwendet werden, um das Robotersteuermodul 1 238 und andere Elektroniken 306, 308 vor der Wärme der Maschine zu schützen. Bei einem Ausführungsbeispiel kann das Wärmeschild 304 eine Dichtung an seiner oberen Fläche haben, so dass es eine Dichtung mit der oberen Fläche der Schüttmulde bilden kann (nicht gezeigt).
  • Die Robotersteuermodule 238, 244, 254, 262 kann jeweils drei unterschiedliche Funktionen haben. Beispielsweise kann ein Robotersteuermodul eine Betriebssystemsteuer (beispielsweise ein System zum Betrieb eines Fahrzeugs) und ein anderes Robotersteuermodul kann Überwachungsfunktionen ausführen. Bei einem Ausführungsbeispiel ist jedes Robotersteuermodul dazu in der Lage, jede von unterschiedlichen Funktionen abhängig von der Anordndung in dem Fahrzeug auszuführen. Andere Ausführungsbeispiele desselben oder eines anderen Fahrzeugs kann mehr oder weniger Steuerrobotermodule haben.
  • Das Robotersteuermodul 2 254 kann an der vorderen Laserscanneranordnung 310 positioniert sein. Das Robotersteuermodul 3 244 kann auf der rückwärtigen Laserscanneranordnung 312 angeordnet sein. Das Robotersteuermodul 4 262 kann in der Motorhaube 314 des Fahrzeugs angeordnet sein. Die Position der Robotersteuermodule in den Leerräumen, gezeigt in den 3 und 4, ist illustrativ und eine Vielzahl von anderen Konfigurationen sind möglich. Das Positionieren und Montieren der Robotersteuermodule nahe der Einrichtungen, an die sie Steuersignale aussenden und von denen sie Steuersignale empfangen, kann die Rauschstörung mit diesen Signalen reduzieren. 4 zeigt das Layout verschiedener anderer elektronischer Komponenten des Robotersteuersystems des Fahrzeugs 300 nach einem Ausführungsbeispiel der vorliegenden Erfindung. Beispiele solcher anderer Komponenten weisen einen Batterieequalizer 30, eine GPS 352, VCU 354, Kameras 358, einen Kompass 360, Radios 362, Spannungszentrum 364 und einen Kontroller 366 auf.
  • Hinderniserkennungs/Hindernisvermeidungssystem
  • Wie oben erwähnt, ist das Fahrzeug mit einem Hindernisvermeidungs (ODOA) System versehen, das ausgebildet ist zum Erkennen von Hindernissen außerhalb des Fahrzeugs und zum Initiieren von geeigneten Steueraktionen um diese zu vermeiden. Das ODOA System des Fahrzeugs weist sowohl Hardware – als auch Softwarekomponenten auf und ist ausgebildet, um ausfallsicher zu sein, ohne die Fähigkeit für externe Operatoren zu begrenzen, das Fahrzeug vollständig zu beherrschen, falls dies militärisch notwendig ist. Bei einem solchen Ausführungsbeispiel weist das Fahrzeug die folgenden Komponenten auf: (i) eine vordere Neigungslaserscanneranordnung; (ii) eine rückwärtige Laserscanneranordnung; (iii) eine Robotersteuereinheit unter Verwendung eines Speichers mit einem ausführbaren Code, etwa einer Bereichsschutzanwendung und einer Kontrolle (oder einem Antriebsarbiter) Applikation; und (iv) einer Hinderniskarte. Andere Typen von Scannern, andera als Laser, und Sensoren können ebenfalls in dem System verwendet werden, etwa solche, die in der Lage sind zum Erzeugen einer besonderen Karte oder eines Konus von Bereichsvek toren (beispielsweise Wahrnehmung). Beispiele solcher Sensoren und Scanner schließen LIDAR, Stereovision, Radar und Sonar ein.
  • Es wird jetzt auf die 5A–B Bezug genommen. Hier ist ein vorderer Neigungslaserscanner 400 nach einem Ausführungsbeispiel der vorliegenden Erfindung gezeigt. Der vordere Neigungslaserscanner 400 ist allgemein auf der Frontseite des Fahrzeugs angeordnet und weist einen Laserscanner 402 zum Aussenden eines Laserstrahles 403 zum Erkennen des Vorhandenseins eines Hindernisses, einen Scannermechanismus 404 zum Manipulieren der Position des Laserscanners 402 und damit der Richtung des Laserstrahles 403, eine Schutzführung 406 zum Verhindern einer Zerstörung des Frontneigungslaserscanners 400 auf. Ein Beispiel eines derartigen Laserscanners 402 ist ein LMS-291 Laserscanner, der von SICK Minneapolis, MN hergestellt wird. Zusätzlich oder alternativ zu dem Laserscanner 402 kann ein LADAR/LIDAR erzeugt werden, der eine Punktwolke oder eine Tiefenkarte erzeugt. Der LADAR/LIDAR kann auch Radar, Steroscope sichten oder andere Sensorfunktionalitäten schaffen, die verwendet werden können zum Erzeugen einer Punktwolke und/oder Tieferkarte. Bei einigen Ausführungsbeispielen kann das LADAR/LIDAR mit dem Laserscanner 402 austauschbar sein.
  • Eine nach vorne gerichtete Neigungslaserscanneranordnung nach einigen Ausführungsbeispielen der vorliegenden Erfindung kann „wahre" oder interpolierte 3D Daten über Hindernisse vor dem Fahrzeug geben und führt diese Daten zu Bordcomputern, etwa einem einzigen Bordcomputer, der mit einer Robotersteuereinheit zur Verarbeitung zugehörig ist. Die nach vorne weisende Laserscannereinheit 400 nickt mit einer 2 Hz Rate, erreicht seinen maximalen Blickwinkel 15 Grad unterhalb der Horizontalen (auf den Erdboden blickend) und erreicht seinen maximalen Blickwinkel von 25 Grad nach oben (in den Himmel blickend). Die Laserscannereinheit 400 erzeugt 181 Bereichslesungen pro Abtastung (jede Abtastung schließt in 26 Millisekunden) ab aus einem maximalen Bereich von 50 Metern von 50 Grad rechts (der Steuerbordseite des Fahrzeugs) bis 90 Grad nach links (der Backbordseite des Fahrzeugs).
  • In dem besonderen in den 5A–B gezeigten Ausführungsbeispiel weist die Schutzführung 406 zwei Tragelemente 408, 410 auf, die mit einer Laserscannerbasis 412 verbinden. Eine Anzahl von Stützrippen 414, 416, 418 kann zwischen den beiden Stützelementen 408, 410 vorgesehen sein und ist positioniert zum Schützen des vorderen Neigungslaserscanners 408 vor einer Zerstörung und erlaubt es dem Laserscanner 402, Hindernisse zu erkennen unter Verwendung des Laserstrahls 403, wobei keine Hindernisse von dem Laserstrahl 403 unentdeckt bleiben. Beispielsweise können die Tragrippen 416, 418 derart positioniert sein, dass der Querschnittsbereich, der innerhalb des winkligen Fensters des Laserstrahls 403 begrenzt ist, so dass die Stützrippen 416, 418 die Erkennung von Gegenständen nicht verhindert. Alternativ können die Stützrippen 416, 418 außerhalb des Winkelfensters des Laserstrahls 403 angeordnet sein. Zusätzlich können die Stützelemente 408, 410 außerhalb des winkligen Fensters des Laserstrahls 403 angeordnet sein, wenn der Laserstrahl in einer neigenden Betriebsweise ist. Alternativ können die Stützelemente 408, 410 derart positioniert sein, dass ein Querschnittsbereich der Stützelemente 408, 410 in dem Winkelfenster des Laserstrahls 403 ist.
  • Ein rückwärtiger Laserscanner kann auf der Rückseite des Fahrzeugs angeordnet sein zum Erkennen von Hindernissen und kann, ähnlich dem Frontlaserscanner, eine Schutzführung aufweisen, um den rückwärtigen Laser daran zu hindern, zerstört zu werden. Die Schutzführung kann eine beliebige Anzahl von Stützrippen oder Stützelementen aufweisen, die positioniert sind, um zu verhindern, dass der rückwärtige Laserscanner zerstört wird und es dem Laserscanner erlaubt, Hindernisse zu erkennen. Der rückwärtige Laserscanner kann dieselbe Ausbildung wie der Frontneigungslaserscanner haben, der in den 5A–B gezeigt ist. Der rückwärtige Laserscanner kann ebenfalls einen Laserscanner aufweisen wie einen LMS-291, der von SICK, Minneapolis, MN hergestellt wird.
  • Wie in 6 gezeigt, kann der Neigungslaserscanner 400 mit einem RCU 502 verbunden sein und drei-dimensionale Daten an die RCU 502 übertragen. Die RCU 502 kann Daten empfangen, die von dem Laserscanner 400 übertragen werden und kann mit anderen RCUs und einer Überwachungs RCU durch, beispielsweise, eine Ethernetverbindung 504 kommunizieren. Die RCU 502 kann weiter einen Motor steuern, der mit dem Laserscanner 400 verbunden ist, um die Position des Laserstrahles zu verhindern. Bei einem Ausführungsbeispiel des Laserscanners ist der Motor ein Maxon Motor EC40 mit einem GP52C Getriebe versehen.
  • Die rückwärtige feste Laserscanneranordnung kann 2D Daten über Hindernisse hinter dem Fahrzeug gewinnen und diese Daten an Bordrechner zur Verarbeitung übermitteln. Die rückwärtige Laserscannereinheit kann in einer festen horizontalen Position montiert sein. Die Laserscannereinheit kann 181 Bereichslesungen pro Abtastung erzeugen (jeder Scan schließt in 26 Millisekunden ab) aus einem maximalen Bereich von 50 Meter von 90 Grad nach rechts bis 90 Grad nach links.
  • Die Bereichsführungssoftware kann Unterbrechungen der Hindernisdaten von den Laserscannern erkennen und gibt Ersatzdaten aus, die angeben, ob Hindernisse in jeder Richtung, die abgetastet werden kann („Halbmonde") vorliegen. Dies verhindert, dass das Fahrzeug sich in eine Richtung bewegt, die durch die Bordsoftware wenig zuverlässig als frei von Hindernissen erkannt worden sind.
  • Eine Hinderniskarte gibt die Relativposition von Hindernissen bezüglich des Fahrzeugs an und ist im Allgemeinen von einer Robotersteuereinheit in dem Robotersteuersystem über den Eingang, der von den Sensoren empfangen worden ist, etwa dem vorderen und dem rückwärtigen Laserscannern erzeugte. Die Steuersoftware bestimmt die richtige Bahn durch das Hindernisfeld unter Verwendung der Hinderniskarte und befiehlt das Steuersystem geeignet (Steuerung, Drossel, Bremse, Schaltung) um diese Bahn zu erreichen.
  • Nach dem Empfangen von sich auf Hindernisse, die gewünschte Richtung, sich bewegende Gegenstände usw. beziehende Informationen kann die Robotersteuereinheit in dem robotisch gesteuerten Fahrzeugaktionen basierend auf diese Information entscheiden. Aktionen können, beispielsweise, eine Änderung der Geschwindigkeit des Fahrzeugs eine Änderung der Fahrzeugrichtung usw. anschließen. Ein Antriebsarbitersystem kann vorgesehen sein, um basierend auf empfangenden und/oder bekannte Information die bevorzugten Aktionen, die das Fahrzeug ausführen soll, zu entscheiden. Der Arbiter verwendet einen Algorithmus zum Bestimmen dieser Aktionen. Insbesondere empfängt der Arbiter eine Information, etwa Bestimmungs- oder Hindernisdaten von Sensoren und erzeugt Sätze von möglichen Aktionen. Beispielsweise können Sätze oder Bahnsätze vorgesehen sein durch einen oder alle liefernden oder projizierenden Komponenten. Projizierte Komponenten erzeugen Aktiionen und können eine Fernbedienungskomponente, „Follow Me" Betriebsinformation, odometrische Wegpunkte und GPS Wegpunkte einschließen. Projizierende Komponenten begrenzend die Aktion und können Hindernisse einschließen, die von den Sensoren erkannt worden sind oder andere Information.
  • 7 zeigt einen Betriebsarbiteralgorithmus 600 nach einem Ausführungsbeispiel der vorliegenden Erfindung. Wie in 7 gezeigt, werden Aktionssätze bei 602 derart erzeugt, dass ein erster Satz von möglichen Aktionen 604 von einer Fernbedienungsbetriebsart und einem zweiten Satz von möglichen Aktionen 606 in einer GPS Wegpunktbetriebsart. Der Arbiter wählt sodann einen Aktionssatz bei 608 aus basierend auf dem Prioritätswert, der an dem Datensatz angebracht ist. Der ausgewählte Aktionssatz wird dann bewertet und jedwede Projektoren können auf den Aktionssatz bei 610 angewendet werden, beispielsweise das Begrenzen von individueller Aktionen in einem Aktionssatz. Ein Element des Aktionssatzes wird bei 612 ausgewählt und kann verwendet werden bei einer Präferenz, die jeder Bahn in dem Satz zugehörig ist. Der Arbiter kann sodann das ausgewählte Element ausgeben 614.
  • Jeder Aktionssatz oder jeder Bahnsatz kann eine Prioritätsinformation aufweisen, die von der Providerkomponente gesetzt ist und ein Feld von Bahnen, die von der Providerkomponente erzeugt worden ist. Der Aktionssatz kann weiter einen Informationssatz von der Projektorinformation aufweisen, etwa das Vorhandensein und der Ort eines Hindernisses, die die Aktion, die von der Betreiberkomponente gesetzt worden ist, begrenzt. Die Bahnen können einen Geschwindigkeitsbefehl, einen Richtungsbefehl und einen Präferenzwert zwischen 0 und 1 aufweisen, dessen Wert von dem Geschwindigkeitsbefehl und der bekannten Information, die von den Sensoren gewonnen worden ist, beinhalten. Eine Bahn mit einem Präferenzwert von 1,0 kann identifiziert werden als die bevorzugte Aktion, während die Bahnen mit einem Präferenzwert von 1,0 zulässig sein können, jedoch weniger bevorzugte Aktionen sind. Der Antriebsarbiter spielt sodann den Aktionssatz mit der höchsten Priorität aus.
  • Providerkomponenten
  • Das robotergesteuerte Fahrzeug kann unter unterschiedlichen Betriebsarten arbeiten. Beispielsweise kann das Fahrzeug in einer „Follow Me" Betriebsart arbeiten, einer fernbedienten Weise, einer lernenden Rückspiel-Betriebsweise oder einer GPS Wegpunktbetriebsweise arbeiten.
  • Follow Me Betriebsweise: Unter der „Follow Me" Betriebsweise werden ein oder mehrere Gegenstände identifiziert und das robotergesteuerte Fahrzeug wird dazu gesteuert, dem Objekt zu folgen. Die sich bewegende Objektinformation kann verwendet werden zum Erzeugen und Manipulieren des Fahrzeugbewegungsverhaltens. Bei einigen Ausführungsbeispielen der vorliegenden Erfindung kann die Information über das sich bewegende Objekt verwendet werden zum Löschen oder Auslaufenlassen von Datenpunkten, die dem sich bewegenden Objekt zugehörig sind, wenn sie in dem „Heck" sind oder einer vorangehenden Position des Objekts zugehörig sind, um es dem Fahrzeug zu erlauben, sich näher an ein sich bewegendes Objekt zu bewegen, ohne die Datenpunkte zu verbergen, die der vorangehenden Position des Objekts zugehörig sind.
  • Wie in 8 gezeigt, bestimmt ein System, ob ein Gegenstand als einem zu folgenden Gegenstand (700) identifiziert wird. Wenn kein gesetztes Objekt vorhanden ist, kann das System erkennen (702) und auswählen (704) das nächste Objekt innerhalb der Detektionszone, das definiert werden kann durch einen Bereich, in dem der Laserstrahl die Fähigkeit hat, Objekte zu detektieren und/oder zu identifizieren. Bei einigen Ausführungsbeispielen kann das System die gegenwärtige Position des sich bewegenden Objekts gewinnen und die Position des nahesten Objekts zu einem gegebenen Punkt und Auswählen dem nahesten Objekt zu folgen. Der „Follow Me" Betriebsweisenalgorithmus kann eine Bibliothek von Befehlen verwenden, um eine Bahn zu dem Objekt zu erzeugen und kann Richtungs- und Geschwindigkeitskomponenten einschließen, die nicht eine vorgewählte zusätzliche Maximalgeschwindigkeit überschreiten und eine Richtung beinhalten zum Stoppen mit einem vorgegebenen Abstand von dem Objekt.
  • Nachdem das Objekt anfänglich ausgewählt oder aber das Fahrzeug bereits dem Objekt folgt, kann die Position des Fahrzeugs relativ zu der vorherigen Position und der Bewegung des Objekts (706) abgeschätzt werden. Zusätzlich wird das Objekt abgeschätzt oder die erwartete Position wird auch berechnet (708). Wenn kein sich bewegendes Objekt in dem abgeschätzten Positionsbereich innerhalb eines vorbestimmten Zeitraums erkannt wird, wird das Fahrzeug nicht länger nach dem sich bewegenden Objekt suchen und wird versuchen, ein anderes sich bewegendes Objekt zu lokalisieren, um diesem unter Verwendung des oben beschriebenen Prozesses (712) zu folgen.
  • Nach dem Erkennen des sich bewegenden Objekts, wird ein Bahnsatz zum Beliefern des Fahrzeugs mit Bewegungsbefehlen (714) berechnet. Die Bahn kann durch Berechnen von Vektoren in einen Bahnsatz aufgeteilt sein, die durch einen vorgegebenen Winkel getrennt sind (beispielsweise um 5 Winkelgradzeichen nach rechts und nach links der Bahn des sich bewegenden Objekts. Zusätzliche Bahnen können zwischen den Vektoren zum Schaffen von zusätzlichen Bahnen oder Bahnsätzen eingeschlossen sein. Jeder Bahn kann eine Präferenz zugeordnet sein (716). Beispielsweise kann die Bahn, die in der Mitte des Bahnsatzes angeordnet sein, einem Wert zugeordnet sein, der die höchste Präferenz hat, während die Vektoren, die am weitesten von dem Mittelvektor entfernt sind, einen Präferenzwert haben, denen der am wenigsten bevorzugte Vektor zugeordnet ist. Der Bahnsatz wird sodann an die Betriebsarbiterkomponente als ein Aktionssatz geliefert (718). Eine Hinderniskarte kann berechnet werden basierend auf einer Information, die von den Sensoren gewonnen wird, etwa dem vorderen oder dem rückwärtigen Laserstrahl einschließlich dem Vorhandensein und Ort von Hindernissen. Die Hinderniskarte kann geliefert sein an die Betriebsarbiterkomponente an eine Begrenzung der Bahnsätze. Unter der „Follow Me" Betriebsweise können Hindernisvermeidungsinformation, Erkennung oder Antwortverhalten wie hier beschrieben, von dem Robotersteuersystem interpretiert werden, um die Bahnen in dem Bahnsatz zu ändern oder eine Präferenz zwischen den Bahnen zu ändern, um (1) Hindernisse zu vermeiden (2) Bahnen weiter weg von der mittleren Bahn zu bevorzugen, wenn die mittlere Bahn als Hindernisse beinhaltend interpretiert wird, etwa negative Hindernisse einschließlich Löchern oder Neigungsabfällen oder positiven Hindernissen, die eine Struktur oder ein Baum oder das Ausschließen von möglichen zu folgenden Objekten; (3) Ändern oder Verringern der maximalen zulässigen Geschwindigkeit; (4) Ändern oder erhöhen des vorgewählten Bremsweges; und (5) ansonsten das Ändern von Instruktionen, die ausgeführt werden in einer „Follow Me" Betriebsweise, um Hindernissen zu entsprechend.
  • GPS Wegpunktbetriebsweise: Nach einigen Ausführungsbeispielen der vorliegenden Erfindung wird das Fahrzeug basierend auf einer GPs Wegpunktinformation unter Verwendung eines GPS Bestimmungssystems geleitet. Beispiele eines GPS Bestimmungssystems weist das Navcom SF-2050M auf, das von Navcom Technologies, Torrance, CA erhältlich ist. Beispielsweise wird die GPS Wegpunktinformation kontinuierlich von einer Wegpunktliste upgedated und Bahnsätze werden basierend auf dem nächsten Wegpunkt relativ zu dem gegenwärtigen und/oder dem letzten Wegpunkt entwickelt. Zunächst wird eine gegenwärtiger Wegpunkt entsprechend der Position, an der ein Fahrzeug als angeordnet angenommen wird, berechnet. Eine Headingcontrollerbibliothek erzeugt eine Bahn in Richtung auf die jeweilige Position mit einer Geschwindigkeit und Richtungsinformation, die verhindert, dass das Fahrzeug eine vorgegebene Geschwindigkeit überschreitet, um die gegenwärtige Position zu erreichen. Die Fahrzeugposition wird dann berechnet um zu bestimmen, ob das Fahrzeug innerhalb des Wegpunktradius ist oder ob das Fahrzeug bei der Fahrt eine senkrechte Ebene, die dem bestimmten Wegpunkt zugeordnet ist, passiert hat.
  • Ein „nächster" Wegpunkt wird dann bestimmt und eine Bahn wird dann berechnet basierend auf dem gegenwärtigen und dem nächsten Wegpunkt. Basierend auf der Bahninformation wird ein Bahnsatz durch Berechnen von Vektoren mit einem vorgegebenen Abstand von, beispielsweise, 5 Grad erzeugt, wobei die Bahn des sich bewegenden Objekts die Bahn in der Mitte des Satzes zugewiesen ist. Zusätzliche Bahnen können zwischen den erzeugten Bahnen und der Bahn, die einem bevorzugten Wert zugewiesen ist, eingeschlossen sein, wobei weniger bevorzugte Werte den Bahnen zugeordnet sind, die weiter weg von der mittleren Bahn sind.
  • Weiter kann ein Verwendet einen vorgegebenen GPS Pfad aufzeichnen und die Information an ein RCU liefern durch Sichern der Information in einem RCU Flashspeicher. Der Verwender kann sodann ein GPS Pfadplaybacksystem initiieren durch Verwenden der Armatursteuereinheit. Der Verwender kann die GPS Information durch anfängliches Aufzeichnen de GPS Höhen- und Längslesungen aufzeichnen, wobei die GPS Information durch entfernt liegender GPS Information komprimiert wird. Der Wegpunktlistenmanager kann Wegpunkte, die als zu folgen ausgewählt worden sind, in einer Schlange anordnen. Bei manchen Ausführungsbeispielen der vorliegenden Erfindung können die Pfadsegmente zwischen den Wegpunkten bestimmt werden und verwendet werden zum Erzeugen eines gekrümmten Weges, dem das Fahrzeug zu folgen hat. Alternativ wird ein Mittelwegtracker zum Erzeugen eines Pfades verwendet, der für konsistente oder sanfte Fahrzeugbewegungen sorgt. Der Bahnsatz wird sodann an den Antriebsarbiter geliefert, der die geeignete Bahn basierend auf dem Spursatz bestimmen wird und eine Information, die sich auf das Vorhandensein und/oder dem Ort von Hindernissen bezieht. Bei einigen alternativen Ausführungsbeispielen werden die Bahnsätze basierend auf den von einem Kompass gewonne nen Daten erzeugt statt einem GPS System und relativen Orten von Gegenständen Destinationspunkten und/oder vorangehenden Positionsdaten. Beispiele von verwendeten Kompasssystemen weisen einen elektronischen Kompass TCM2-20 auf.
  • In der „GPS Wegpunkt" Betriebsart können Hindernisvermeidungsinformation, Detektion oder entsprechendes Verhalten wie beschrieben in dem Robotersteuersystem interpretiert werden um: (1) die Bahn in dem Satz, oder Pfad oder Pfadsegmente zu ändern oder Präferenzen zwischen den Bahnen in dem Satz oder Wegpunkten in der Liste zur Vermeidung von Hindernissen zu ändern; (2) Bahnen die weiter entfernt von der mittleren Bahn sind zu bevorzugen, wenn die mittlere Bahn als Hindernisse aufweisen interpretiert wird, etwa negative Hindernisse, einschließlich Löchern oder Neigungsabfällen oder positiven Hindernissen wie eine Struktur oder ein Baum oder für ein Folgen in Betracht kommende Objekte auszuschließen; (3) Ändern oder Verringern der maximalen zulässigen Geschwindigkeit; (4) Ändern der Erhöhung des vorgewählten Bremsabstandes; und (5) ansonsten Ändern von Befehlen, die in der „GPS Wegpunkt" Betriebsart ausgeführt werden unter Berücksichtigung von Hindernissen.
  • Fernbedienungsbetriebsart: Bei einigen Ausführungsbeispielen der vorliegenden Erfindung wird der Weg des Fahrzeugs durch eine Fernbedienung bestimmt. Ein Empfänger, der mit dem Fahrzeug verbunden ist, ist dazu eingerichtet, Befehle zu empfangen. Beispielsweise kann die Fernbedienungskomponente eine Aufnahme öffnen, etwa durch Erzeugen eines Kommunikationsendpunkts und Rückgeben einer Dateibeschreibung, mit der der Zugriff zu einer Aufnahme, die einer Aufnahmeadresse zugehörig ist, einschließlich einer Anschlussnummer einer Netzwerkadresse eines lokalen Hosts. Befehle werden von einer Verwendersteuerschnittstelle basierend auf Information, die der Verwenderschnittstelle übertragen worden ist, übertragen, d. h., oder diese zugehörig ist, Daten, die von einer Kamera, die an dem Fahrzeug angeordnet ist, werden über ein Kommunikationslink oder Netzwerk übertragen. Beispiele derartiger Radionetzwerke weist die Verwendung eines 2,4 GHz Netgate Funksystems oder ein Novaroam EH900 900 MHz Radiosystem auf. Das Novaroam EH900 900 MHz System kann kombiniert werden mit einem Netgate 802.22b System zum Schaffen einer überlegenen Kommunikation über relativ kurze und lange Entfernungen. Beispiele solcher Kamerasysteme weisen ein 10/100 Base T Fast Internet Konnektion und eine Sony SNC-CS3N Kamera auf.
  • Das Fernbedienungssystem kann einen Befehl empfangen, der entweder eine Null- oder eine Nicht-Null Geschwindigkeitsinformation aufweist. Wenn der Geschwindigkeitsbefehls Null ist, wird eine Befehlsgeschichte konsultiert um zu bestimmen, ob eine vorgegebene Anzahl von früheren Befehlen auch einen Nullgeschwindigkeitsbefehl beinhalten. Wenn der gegenwärtige Bahnsatz auf irgendwelcher Richtungsinformation beruht, die mit dem jeweiligen Befehl zugehörig ist, wird kein Bahnsatz erzeugt. Wenn das Geschwindigkeitskommando nicht-null ist oder eines oder mehrere der vorangehenden Befehle nicht-null Geschwindigkeitsbefehle beinhaltet haben, wird ein Bahnsatz erzeugt. Ein Bahnsatz wird erzeugt durch Berechnen von Vektoren mit einem vorgegebenen Abstand zwischen diesen, beispielsweise 5 Grad, wobei der Bahn des bewegenden Objekts die Bahn in der Mitte des Satzes zugewiesen ist. Weitere Bahnen können zwischen den erzeugten Bahnen eingeschlossen sein und jeder Bahn ist ein Präferenzwert zugeordnet, wobei weniger präferierte Werte den Bahnen zugeordnet sind, die weit von der Mittelbahn entfernt sind. Der Bahnsatz wird sodann an die Antriebsarbiter geliefert, die die geeignete Bahn basierend auf dem Bahnsatz und der Information, die sich auf das Vorhandensein und/oder den Ort von Hindernissen beziehen. Während der „Fernbedienungs" Betriebsart können die Hindernisvermeidungsinformation, die Detektion und der die Antwortverhalten, wie hier beschrieben, von dem Robotersteuersystem interpretiert werden zum: (1) Ändern der Bahnen in dem Satz oder Ändern von Präferenzen unter den Bahnen in dem Satz zum Vermeiden von Hindernissen; (2) Bevorzugen von Bahnen die weiter von der Mittelbahn entfernt sind, wenn die Mittelbahn als Hindernisse beinhaltend interpretiert wird, etwa negative Hindernisse einschließlich Löchern oder Neigungsabfällen, oder positiven Hindernissen, etwa Strukturen oder Bäumen, oder ein Aufschließen des Folgens von möglichen Objekten; (3) Ändern oder Verringern einer maximal zulässigen Geschwindigkeit; (4) Ändern oder erhöhen des vorgewählten Bremsweges; und (5) anderes Ändern von Befehlen, die in der „Fernbedienung" Betriebsweise ausgeführt worden sind, um Hindernisse zu berücksichtigen.
  • Teach and Playback Betriebsart: Bei einigen Ausführungsbeispielen der vorliegenden Erfindung kann das Fahrzeug in einer Teach and Playback Betriebsart betrieben werden. Eine Verwenderschnittstelle kann vorgesehen sein als eine Armaturenbrettsteuereinheit, die an dem Fahrzeug angebracht ist oder in einem Fernbetriebssystem eingebracht ist (oder anderen geeigneten Verwenderschnittstellen). Das Teach and Playback System kann an ein Fahrzeug mit einem Befehl zum Aufzeichnen von Bewegungen, Antriebssignalen und anderen sich auf den Pfad beziehenden Informationen liefern, etwa GPS Wegpunkten, Ort von Hindernissen usw., und der aufgezeichneten Information folgen, wenn ein Pfad zurück zu dem Ausgangspunkt gefolgt wird. Beispielsweise wird das Fahrzeug die Geschwindigkeits- und Richtungsinformation speichern und die Information mit besonderen GPS Daten und/oder zeitlichen Informationen korrigieren. Bei einer Rückfahrt ruft das System Daten wieder auf, um das Fahrzeug mit Geschwindigkeits-, Richtungs- oder anderen zugehörigen Informationen zu beliefern, um einem Rückweg zu folgen. Das Fahrzeug kann dazu in der Lage sein, der Playbackbewegungsinformation und Daten entweder vorwärts oder rückwärts folgen. Zusätzlich kann die Datenaufzeichnung wiederholt werden für zusätzliche Fahrten entlang des Pfades. Unter der „Teach and Playback" Betriebsart, der Hindernisvermeidungsinformation, der Erkennung oder die Antwortverläufe, wie sie hier beschrieben worden sind, können von dem Robotersteuersystem interpretiert werden zum: (1) Ändern der Bahn in dem Satz oder Pfaden oder Pfadsegmenten oder Ändern von Präferenzen entlang der Pfade in dem Satz oder Wegpunkten in der Liste zum Vermeiden von Hindernissen; (2) Bevorzugen von Bahnen, die von der Mittelbahn weit entfernt sind, wenn die Mittelbahn als Hindernisse aufweisen interpretiert wird, etwa negative Hindernisse einschließlich Löchern oder geneigten Absenkungen, oder positiven Hindernissen, wie Strukturen oder Bäumen und ein Ausschließen eines möglicherweise zu folgenden Objekts; (3) Ändern einer unteren maximal zulässigen Geschwindigkeit; (4) Ändern oder Erhöhen des vorgewählten Bremsweges; und (5) ein anderes Ändern von Befehlen, die in der „Teach and Playback" Betriebsart ausgeführt worden sind, um Hindernisse zu berücksichtigen.
  • Hindernisvermeidung
  • Wie oben erwähnt, wird die Hindernisinformation gewonnen von Sensoren mit, beispielsweise, Laserstrahlen, die manipuliert worden sind in nützliche Information und an das Antriebsarbitersystem geliefert worden sind als „Projektions"-Verläufe, um den Satz von Bahnen zu modifizieren, um schließlich das Fahrzeug zur Vermeidung der erkannten Hindernisse zu steuern. Beispielsweise modifiziert das Hindernisvermeidungssystem die Bahnen und/oder Präferenzbewertungen in einer Weise, die mit einem vorbestimmten Satz von Kriterien konsistent sein kann. Diese Kriterien können sich auf Fahrzeugzonen beziehen, wie in 9 gezeigt, die sich auf Gebiete um das Fahrzeug 8 herum und/oder den Ort der erkannten Hindernisse beziehen. Wie in 9 gezeigt, können diese Zonen einen Körperpfad 802, einen gefährlichen Pfad 804, einen Vorsichtspfad 806 und, abhängig von der Bahn, eine nachlaufende Körperzone 808, eine nachlaufende Gefahrzone 810, eine nachlaufende Vorsichtszone 812 und einen führenden Körper 814, eine Gefahr 816 und einen Vorsichtsnachlauf 818 aufweisen. Die Kriterien können einen Stoppbefehl aufweisen, der an das überwachende RCU gesendet wird, wenn Hindernisse in dem führenden Körper 814 erkannt werden, etwa ein Hindernis 820 oder eine Gefahrenzone wie ein Hindernis 824. Zusätzlich wird geprüft, ob Hindernisse, etwa ein Hindernis 822, in der nachlaufenden Zone 808 oder der nachlaufenden Gefahrenzone 804, etwa ein Hindernis 826, erkannt werden, ein Befehl zum Begrenzen der Fahrzeuggeschwindigkeit auf einen vorgegebenen Wert wird an das RCU ausgesendet und die verfügbaren Bahnen werden begrenzt auf eine vorbestimmte Anzahl, beispielsweise auf einen Gefahrbahnenpräferenzsatz. Zusätzliche Kriterien können für das System vorgesehen sein zum Bestimmen des nahesten Hindernisses in dem Gefahrweg 804, etwa das Hindernis 828 relativ zu den Hindernissen 830 und 832 und zum Begrenzen der Geschwindigkeit auf einen bestimmten Wert, beispielsweise auf weniger als 25% der maximalen Entschleunigungsgeschwindigkeit, Manipulieren des Bahnsat zes auf einen Gefahrpfadpräferenzsatz durch Eliminieren einer vorgegebenen Anzahl von Bahnen und Reduzieren der Bahnpräferenzlevel, die dem Gefahrweg 804 oder nahe dem Gefahrweg 804 zugehörig sind. Weiter wird, wenn Hindernisse in der vorlaufenden Gefahrzone 818 angeordnet sind, etwa ein Hindernis 834, ein Befehl ausgegeben zum Begrenzen der Geschwindigkeit auf einen vorgegebenen Vorsichtsgeschwindigkeitswert. Schließlich wird, wenn Gegenstände in dem Vorsichtsweg 806 erkannt werden, etwa das Hindernis 836, ein Befehl vorgesehen zum Begrenzen der Geschwindigkeit auf einen größeren Wert zwischen der vorgegebenen maximalen Vorsichtsgeschwindigkeit und der minimalen Vorsichtsgeschwindigkeit oder 10% über dem maximalen Sicherheitswert und einem Wert, der der maximalen Sicherheitsgeschwindigkeit zugehörig ist, die Vorsichtsgeschwindigkeit kann skaliert sein durch das Verhältnis des Vorsichtspfadspiels auf die Vorsichtszonenbreite und die Präferenz zwischen der Vorsichtsmaximalpräferenz und der Vorsichtsminimalpräferenz durch das Verhältnis des Spielbereichs zu der Vorsichtszonenbreite. Basierend auf der Hindernisinformation und der Bahn, beispielsweise wie oben diskutiert, wird die gesetzte Bahn von dem Antriebsarbiter manipuliert zum Befehlen des Fahrzeugs, in einer Weise fortzuschreiten, um die Hindernisse zu vermeiden.
  • Hinderniskartenerzeugung
  • Das oben beschriebene System bezieht sich auf die Erkennung von Hindernissen, sich bewegenden Objekten und die Entwicklung einer Hinderniskarte. Die Erkennung von Hindernissen kann das Erkennen von Gruppen von Hindernissen einschließen in der Hinderniskarte, die neu sind, Gruppen von Hindernissen, die innerhalb eines zeitlichen Ausschlussintervalls vorliegen und Gruppen von Hindernissen, die kürzlich ausgelaufen sind. Eine Hinderniskarten wird von Datenpunkten und Information entwickelt, die gewonnen worden ist von dem Laserscanner und eine Schnittstelle zum Analysieren möglicher Aktionen durch das Fahrzeug schafft. Die Datenpunkte können zeitlich bestimmt sein zum Beliefern des Detektionssystems mit der Möglichkeit des Klassifizierens von Datenpunkten in neue, gegenwärtige und alte Datenpunkte. Die Hinderniskarte kann weiter eine Information beinhalten wie die seit dem vorangehende Laserstrahl abgetasteten Zeitintervalle zum Erkennen des Vorhandenseins des sich bewegenden Objekten. Wie in 10 gezeigt, werden die sich bewegenden Objekte erkannt durch das Vorhandensein von benachbarten Punkten 900, die von dem Laserscanner gewonnen werden. Jeder Punkt ist zeitlich definiert und in einer Gatterzelle kartiert. Die zeitbestimmten Punkte 900 können werden in alte Punkte 904, gegenwärtige Punkte 906 und neue Punkte 908 eingeteilt. Wie in den 11A–B gezeigt, können die detektierten Punkte 900 auf einem Raster 904 aufgelegt sein, das mit dem Scanfenster 902 korreliert. Die Zellen sind in Untersetze von benachbarten Rasterzellen 906 aufgeteilt. Jede Gruppe von benachbarten besetzten Rasterzellen 906 repräsentieren ein mögliches Objekt. Wenn das mögliche Objekt unterschiedliche neue und alte Punkte beinhaltet, hat sich das mögliche Objekt wahrscheinlich bewegt. Ein Objekt ist wahrscheinlich ortsfest, wenn der alte und der neue Punkt derselbe sind. Jede Gruppe von benachbarten Punkten, die Mitte der neu erkannten benachbarten Gruppe und die ältere erkannte benachbarte Gruppe werden berechnet. Unter Verwendung der Differenzen zwischen den beiden Bitpunkten können, gemeinsam mit der Abtastrate, die Geschwindigkeit des sich bewegenden Objekts, seine Richtung und sein Radius berechnet werden. Das Auswärtssignal dieser Erkennung kann Inhalte von sich bewegenden Objektdaten als auch eine Identifikation, den Mittelpunkt alter Punkte, den Mittelpunkt neuer Punkte, eine Richtung, Geschwindigkeit, Radius und eine Liste von alten Punkten beinhalten. Das sich bewegende Objektverhalten wird verwendet zum Steuern des Fahrzeugs in dem „Follow Me" Betrieb und zum Erlauben der Datenpunkte in dem Gatter auszulaufen durch Erkennen, ob die Punkte dem Ende des sich bewegenden Objekts zugehörig sind (d. h., die vorangehende Position des sich bewegenden Objekts oder Satz von Positionen) und es dem Fahrzeug erlauben, dem sich bewegenden Objekt näher zu folgen.
  • Die Hinderniskarte nach einem Ausführungsbeispiel der vorliegenden Erfindung erzeugt einen Hindernisreport, der die beste Abschätzung der Hinderniseigenschaften der Hinderniskarte angibt. Für konsistente Hindernisreporte und eine schnelle Bestimmung des nahesten Hindernisses innerhalb eines bestimmten Pfads um das Fahrzeug, wie in 9 gezeigt, kann die Hindernisdichte gewonnen werden in jeder bestimmten Zone um das Fahrzeug. Der Hindernisreport kann daher Hindernisdichten und den Bereich des nahesten Hindernisses in Bezug auf jeden Pfad, der dem Fahrzeug zugeordnet ist, einschließen. Das Hindernisvermeidungssystem wird den Hindernisreport verwenden, um die individuellen Bahnen, die dem Betriebsarbiter vorgeschlagen werden, zu bewerten.
  • In einigen Ausführungsbeispielen der vorliegenden Erfindung kann ein 2D Sensor, etwa ein vorderer oder hinterer Laserscannermechanismus, als ein 3D Sensor verwendet werden. Die Systemkomponenten integrieren Bereichsdaten, Wickeldaten und Fahrzeuggeschwindigkeitsdaten, um eine Hinderniskarte unter Verwendung von vier Dimensionen von Daten zu erzeugen. Die sich ergebende Karte kann eine genaue Repräsentation eines Hindernisses bei einer relativ hohen Geschwindigkeit sein. Wie in 12 gezeigt, wird eine Hinderniskarte gewonnen durch Aussenden von Laserbereichsdaten 1002, Scannerwinkeldaten 1004, Fahrzeuggeschwindigkeitsdaten 1006, einem Synchronisierungsimpuls 1008 und Hindernisdatenpunkten 1010, die von einer ersten Abtastung des Lasers gewonnen worden sind zu einer Hinderniskarte RCU 1012. Die RCU 1012 versieht die Daten mit der Zeit und erzeugt den Winkel des Lasers, wenn der Laser eine Abtastung durchführt oder den Neigungswinkel. Die mit einer Zeit versehenen Datenpunkte, die Synchronisationsimpulsdaten und der Neigungswinkel werden an den Überwachungs RCU 1014 gesendet, um die Überwachungs RCU mit vier Dimensionen von Daten der Hindernisse zu versorgen, um die Hinderniskarte zu erzeugen.
  • Ein Ausführungsbeispiel der Verwendung eines 2D Scanners zur Schaffung von 3D Daten schließt einen Laserscanner RCU ein, der Konfigurationsdaten manuell von einem Verwender empfängt über ein Telekommunikationsnetzwerk oder von anderen Komponenten in dem Fahrzeugsteuersystem. Basierend auf der Konfigurationsinformation konfiguriert der Scanner RCU den Betrieb zum Ausgeben von Bereichsdaten 1002 und zum Lesen der Bereichsdaten 1002 und das Versehen mit der Zeit. Ein Neigungsbewegungscontroller liest Konfigurationsdaten, empfängt Befehle zum Steuern der Laserneigung und des Abtastver haltens und manipuliert die Abtastparameter in Übereinstimmung mit den Befehlen. Zusätzlich kann der Neigungsbewegungscontroller einen horizontalen Synchronisierungsimpuls von dem Treiber als eine Unterbrechung erhalten und beachtet die Zeit der letzten Unterbrechung. Eine oder mehrere Neigungsbotschaften können von einer Nickbewegungscontrollerplatine empfangen werden und der Nickbewegungscontroller berechnet den Startzeitpunkt der letzten Abtastung basierend auf einem empirisch bestimmten festen Offset von dem horizontalen Synchronisierungsimpuls. Der Controller verwendet dann die Zeit zum Bestimmen des Zeitpunkts der Elevationsdaten. Diese mit einer Zeitangabe versehenen Elevationsdaten werden sodann an einen 3D Kartengenerator gesendet. Der 3D Kartengenerator kann Konfigurationsdaten lesen, aus dem Treiber abtasten und die Elevationsdaten zeitstempeln. Der 3D Kartengenerator berechnet sodann die Neigung des Nickmechanismus an dem Beginn der letzten Bereichsabtastung basierend auf der sinusförmigen Bewegung des Nickens. Jede Abtastung wird sodann mit der berechneten Neigung bei dem Beginn der Abtastung markiert. Der 3D Kartengenerator erzeugt sodann Bereichsdaten, die versehen sind mit der Elevationsinformation an eine Botschaftsschleife zur Verwendung als eine Überwachungs RCU. Weiter erkennt der 3D Kartengenerator ein Verlust an Synchronisation aufgrund, beispielsweise, Fehlern in dem Eingang/Ausgang und resynchronisiert durch Verwerfen von Daten, bis eine Übereinstimmung zwischen den Zeitangaben erreicht werden kann.
  • Das Hindernisvermeidungssystem, das in manchen Ausführungsbeispielen der Erfindung vorhanden ist, kann das Wandeln von 3D Hindernisinformation in 2D Daten aufweisen, um bei dem Ausrichten des Fahrzeugs zur Vermeidung von Hindernissen zu unterstützen. Wie in 13A dargestellt, weisen Sensordaten, etwa Daten, die von dem vorderen nickenden Laser und dem rückwärtigen Laser gewonnen worden sind, eine relativ große Zahl von 3D Datenpunkte auf, die ein 3D Objekt 1050 repräsentieren. Wie in 13B gezeigt, sind jedoch nur eine relativ kleine Anzahl von 2D Punkten 1052 über manchen Systemen erforderlich, um das Vorhandensein von Hindernissen geeignet zu kartieren. Ausführungsbeispiele der Erfindung erzeugen eine Hinderniskarte, die die 3D Sensordaten in einen Satz von 2D Punkten wandelt, die Hindernisse oder andere Objekte repräsentieren. Wie in 14 gezeigt, weist die Wandlung von 3D Daten in 2D Daten das Gewinnen von Sensorpunkten ein, die zeitgestempelt sein können und einen 3D Punktsatz beinhalten und die Ausrichtung des Sensors bezüglich des Fahrzeugs (1100). Die zeitgestempelte Geschwindigkeit des Fahrzeugs wird, kontrolliert mit den zeitgestempelten Punkten, zum Erzeugen einer 2D Karte (1102) verwendet. Beispielsweise ist, wie in 15 gezeigt, wenn die Ausrichtung 1152 des Sensors, etwa des Sensors 1154, bekannt ist, die Hindernispunkte 1150 kartiert relativ zu der Ausrichtung 1152 des Sensors und korreliert mit der jeweiligen Zeitangabe. Sodann werden die Daten verglichen mit vorgegebenen Kriterien (1104) und Datenpunkte werden als überflüssig identifiziert, da sie, beispielsweise, „zu weit", „zu hoch", oder „zu tief" sind relativ zu dem Fahrzeug werden erkannt als außerhalb des Kriteriums (1106). Datenpunkte, die „zu tief" sind, schließen Datenpunkte nicht ein, die Löcher, Spalten oder andere Tiefen beinhalten können, die als Hindernisse betrachtet werden müssen. Wenn, beispielsweise, eine Diskontinuität von Datenpunkten in einer Abtastung erkannt wird, wie in den 16 und 17 gezeigt und im Folgenden eingehender diskutiert werden wird, können die Datenabtastungen das Vorhandensein von Löchern oder ähnlichen Hindernissen angeben. Nach dem Vernachlässigen der irrelevanten Datenpunkte, können die Datenpunkte, die in einer 2D Punktwolke korrelieren für einen einzelnen Satz von Datenpunkten (1104) verwendet werden. In 18 dargestellt, werden Punkte der Bereichsdaten 1400, die nach dem Filtern als „zu weit weg", „zu hoch" und „zu tief, aber kein Loch" gekennzeichnet werden, in 2D kartiert 1402.
  • Die sich ergebende 2D Punktwolke weist Datenpunkte auf mit Positionsinformation in der Form (x, y) und ist der mit einer Zeitangabe versehenen Information zugehörig. Die Punktwolkendatenpunkte werden weiter gefiltert zum Entfernen unnötiger Datenpunkte (1110). Zum Beispiel können nur Datenpunkte innerhalb von 25 Meter vor dem Fahrzeug mit einer Auflösung von 10 Zeichen vorgesehen sein. Das Punktraster kann einen Index eines Punktfeldes repräsentieren (1112). Das Punktfeld hält die Daten an individuellen Punkten, die während einer bestimmten Laserabtastung gewonnen worden sind. Jedes Mal, wenn die Punkte zu dem Raster zugefügt werden, werden Datenpunkte zunächst von dem Raster entfernt. Ähnlich zu dem Raster werden die Punktfelddatenpunkte bei bestimmten Bedingungen gelöscht. Wenn, beispielsweise, der Zeitstempel, der den Daten zugehörig ist, als „zu alt" bestimmt werden, um relevant zu sein, werden die Punktfelddatenpunkte vernachlässigt (1114). Weiter wird, wenn der Abstand von dem bestimmten Punkt zu dem Ursprung des Fahrzeugs außerhalb eines vorbestimmten Bereichs liegt, der Punktfelddatenpunkt vernachlässigt (1116). Schließlich werden die meisten, wenn nicht alle, Datenpunkte basierend auf diesen Kriterien vernachlässigt. Nachfolgend wird das jeweilige Punktfeld, das die Punkte beinhaltet, die aus den vorigen Sensordaten ausgewählt worden sind, in dem Raster verrechnet (1118). Wenn ein Rasterindex bereits einen gespeicherten Punkt hat, werden die Datenpunkte vernachlässigt und der neue Datenpunkt wird in dem bestimmten Indes gespeichert (1120). Wenn das Fahrzeug noch aktiv ist, kann ein anderer Laserabtastdatensatz gewonnen werden und der Vorgang beginnt erneut (1122).
  • Wie oben erwähnt, zeigen die 1617 eine Diskontinuität während einer Laserabtastung. In 16 tastet ein Laserscanner 1200 mit einer Laserscannerausrichtung 1202 einen Scanbereich 1204 ab unter Verwendung, beispielsweise eines Laserstrahls. Ein Laserscanner 1200 kann einen Laserstrahl über den Abtastbereich 1204 ausrichten in, beispielsweise, einer halbmond- oder kreisförmigen Form. Die Laserstrahlpunkte 1206, die einen Bereich repräsentieren, in dem der Laserstrahl erkannt worden ist, sind, beispielsweise, im Wesentlichen halbkreisförmig ausgerichtet. Der Laserabtaster 1200 kann eine Diskontinuität 1208 der Laserstrahldatenpunkte unter Verwendung einer Abtastung erkennen. Die Diskontinuität 1208 kann durch eine Abnahme des Scanabtastbereichs 1205 oder als ein Loch in dem Abtastbereich 1204 gebildet sein.
  • 17 zeigt Diskontinuität 1300 unter Verwendung einer Vielzahl von Laserstrahldatenpunkten die erkannt worden sind. Die Datenpunkte können gewonnen werden durch Vektorstrahlen 1302, einen halbmondförmigen oder halbkreisförmigen Laserstrahlabtastung 1304 oder durch Erkennen von zwei Datenpunkten 1306 mit unterschiedlichen Muster oder erwarteten Eigenschaften wie anderen Datenpunkten. Die Diskontinuität 1300 kann dann zum Begrenzen oder einem sonstigen Bestimmen der Fahrzeugaktion verwendet werden.
  • Allgemeines
  • Die vorangehende Beschreibung des Ausführungsbeispiels einschließlich bevorzugter Ausführungsbeispiele, der Erfindung wurde lediglich zum Zweck der Illustration und der Beschreibung präsentiert und soll nicht als die Erfindung einschränken oder begrenzend verstanden werden, auf die hier offenbarten diskreten Ausbildungen. Verschiedene Modifikationen und Adaptionen ergeben sich dem Fachmann, ohne sich von dem Grundgedanken oder Schutzbereich dieser Erfindung zu lösen.
  • ZUSAMMENFASSUNG
  • Ausführungsbeispiele der Erfindung schaffen Systeme und Verfahren zur Hindernisvermeidung. Bei einigen Ausführungsbeispielen wird ein robotergesteuertes Fahrzeug geschaffen, das dazu in der Lage ist, in einen oder mehreren Betriebsarten zu arbeiten. Beispiele derartiger Betriebsarten weisen Fernbedienung, Wegpunktnavigation, Folgen und einen manuellen Betrieb auf. Das Fahrzeug kann ein Hinderniserkennungs- und -vermeidungssystem beinhalten, das dazu in der Lage ist, mit einem oder mehreren der Fahrzeugbetriebsarten implementiert zu werden. Ein Steuersystem kann zum Betreiben und Steuern des Fahrzeugs in der einen oder den mehreren Betriebsarten vorgesehen sein. Das Steuersystem kann eine Robotersteuereinheit und eine Fahrzeugsteuereinheit aufweisen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 60/729445 [0001]
    • - US 60/729388 [0001]
    • - US 60/780389 [0001]
    • - US 60/838704 [0001]
  • Zitierte Nicht-Patentliteratur
    • - www.deere.com [0086]

Claims (33)

  1. Ein robotergesteuertes Fahrzeug mit: einer Robotersteuereinheit mit einer Steueranwendung; einem Sensor zum Erkennen von Objektdaten, die erkannte Hindernisse oder Objekte repräsentieren, die außerhalb des Roboterfahrzeugs erkannt worden sind, und zum Übertragen der Objektdaten an die Robotersteuereinheit; wobei die Robotersteuereinheit eine Karte basierend auf den Objektdaten erzeugt, die Karte Kartierungsdaten aufweist und die Kartierungsdaten Positionsdaten der erkannten Hindernisse oder Objekte aufweist; und wobei die Steueranwendungseinheit basierend wenigstens teilweise auf den Kartierungsdaten Fahrzeugaktionen bestimmt und einen Steuerbefehl an eine Fahrzeugsteuereinheit ausgibt, der die Fahrzeugaktionen repräsentiert.
  2. Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Fahrzeugaktionen wenigstens die Geschwindigkeit des Fahrzeugs oder die Richtung des Fahrzeugs beinhalten.
  3. Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei der Sensor ein Laserscanner ist.
  4. Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Robotersteuereinheit einen Prozessor und einen Speicher mit einem ausführbaren Code aufweist, wobei der ausführbare Code einen Betriebsarbiter beinhaltet, der zweidimensionale Kartierungsdaten und Fahrzeugbestimmungsdaten empfängt und einen Satz von Fahrzeugaktionen basierend wenigstens teilweise auf Kartierungsdaten und den Fahrzeugbestimmungsdaten erzeugt.
  5. Das robotergesteuerte Fahrzeug nach Anspruch 4, wobei der Satz von Fahrzeugaktionen Providerkomponenten aufweist, die Fahrzeugaktionen und Projektorkomponenten erzeugen, die die Fahrzeugaktionen begrenzen.
  6. Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Providerkomponenten wenigstens eine Fernbedienungskomponente, eine „Follow Me"-Betriebsartinformation, Odometerwegpunkte und GPS-Wegpunkte beinhalten, und wobei die Projektorkomponenten Kartierungsdaten aufweisen.
  7. Das robotergesteuerte Fahrzeug nach Anspruch 1, weiter mit einer Fahrzeugsteuereinheit, die Fahrzeugaktionen von der Robotersteuereinheit empfängt und Steuersignale an einen Fahrzeugaktuator ausgibt.
  8. Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Robotersteuereinheit Steuersignale an einen Fahrzeugaktuator ausgibt.
  9. Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Objektdaten dreidimensionale Daten sind und die Kartierungsdaten zweidimensionale Daten sind.
  10. Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei der Sensor eine Laserscanneranordnung ist, die angepasst ist zum Verbinden mit einem Roboterfahrzeug, wobei die Laserscanneranordnung aufweist: einen Laserscanner zum Aussenden eines Laserstrahls zum Erkennen des Vorhandenseins eines Hindernisses; einen Scannermechanismus zum Manipulieren der Position des Laserscanners; und einen Schutz zum Schützen des Laserscanners vor einer Beschädigung und zum Ermöglichen eines Erkennens des Vorhandenseins eines Hindernisses durch den Laserstrahl, wobei der Schutz aufweist: eine Basis zum Verbinden der Laserscanneranordnung mit dem Roboterfahrzeug; wenigstens zwei Stützelemente, die mit der Basis verbunden sind; und eine Mehrzahl von Stützrippen, die mit den wenigstens zwei Stützelementen verbunden sind.
  11. Das robotergesteuerte Fahrzeug nach Anspruch 10, wobei die Mehrzahl von Stützrippen außerhalb eines Winkelfensters des Laserstrahls positioniert ist.
  12. Das robotergesteuerte Fahrzeug nach Anspruch 10, wobei die Mehrzahl von Stützrippen einen ersten Querschnittsbereich und einen zweiten Querschnittsbereich haben, der größer als der erste Querschnittsbereich ist; und wobei die Mehrzahl von Stützrippen derart positioniert ist, dass der erste Querschnittsbereich aus der Mehrzahl von Stützrippen ein Winkelfenster des Laserstrahls ist.
  13. Ein Verfahren zum Veranlassen eines Roboterfahrzeugs, einem Objekt zu folgen, wobei das Verfahren aufweist: Identifizieren eines Objekts, dem das Roboterfahrzeug zu folgen hat; Abschätzen einer Roboterfahrzeugposition relativ zu einer vorgegebenen Position und einer Bewegung des Objekts; Abschätzen einer Bereichsposition des Objekts; Empfangen einer Position des Objekts; Bestimmen, ob das Objekt in der abgeschätzten Bereichsposition ist; Berechnen eines Bahnsatzes basierend teilweise auf der Objektposition, wobei der Bahnsatz eine Mehrzahl von Bahnen aufweist; Zuordnen eines Präferenzwerts zu jeder der Bahnen; und Schaffen eines Bahnsatzes für den Betriebsarbiter.
  14. Das Verfahren nach Anspruch 13, wobei das Identifizieren eines Objekts, dem das Roboterfahrzeug zu folgen hat, aufweist: Empfangen einer Identifikation eines zu folgenden Objekts, wobei die Identifikation den Objektort beinhaltet, und Erkennen des zu folgenden Objekts.
  15. Das Verfahren nach Anspruch 13, wobei das Identifizieren eines Objekts, dem das Roboterfahrzeug zu folgen hat, aufweist: Empfangen von Daten von einem Laserscanner, wobei die Daten eine Identifikation einer Mehrzahl von Objekten innerhalb einer Detektionszone aufweisen; und Auswählen des nahesten identifizierten Objekts als zu folgendem Objekt.
  16. Das Verfahren nach Anspruch 13, wobei der Bahnsatz eine Bahn aufweist mit einem Mittelvektor und einer Mehrzahl von Bahnen, die einen Bahnvektor haben, wobei der Mittelvektor und der Bahnvektor für jede Bahn voneinander um einen vorgegebenen Winkel beabstandet sind.
  17. Das Verfahren nach Anspruch 16, wobei das Zuordnen eines Präferenzwerts für jede der Bahnen aufweist: Zuordnen eines bevorzugten Werts für die Bahn, die den Mittelvektor hat; und Zuordnen wenigstens eines bevorzugten Werts für die Bahn, die den Bahnvektor hat, der am weitesten von dem Mittelvektor entfernt ist.
  18. Das Verfahren nach Anspruch 13, weiter mit: Empfangen von Hindernisdaten, wobei die Hindernisdaten den Ort der Hindernisse beinhalten; Liefern der Hindernisdaten an den Betriebsarbiter; und Auswählen einer Bahn basierend wenigstens teilweise auf den Hindernisdaten.
  19. Ein Verfahren zum Steuern eines Robotersteuerfahrzeugs unter Verwendung einer Hinderniskarte, mit: Gewinnen einer Mehrzahl von Punkten, wobei jeder Punkt wenigstens einen Teil eines Hindernisses und eine Position des Hindernisses zu einem bestimmten Zeitpunkt repräsentiert; Zuordnen einer Zeitangabe zu jedem Punkt; Kartieren der Punkte zu einer Zelle, wobei die Zelle in Raster partitioniert ist; Separieren der Mehrzahl von Punkten in alte, gegenwärtige und neue Punkte basierend wenigstens teilweise auf den zugehörigen Zeitangaben; Bestimmen der Mitte wenigstens eines der alten Punkte und der gegenwärtigen Punkte; Bestimmen der Mitte der neuen Punkte; Gewinnen einer Positionsdifferenz zwischen der Mitte der neuen Punkte und der Mitte der wenigstens einen der alten Punkte und der gegenwärtigen Punkte; Bestimmen einer Geschwindigkeit eines Objekts basierend wenigstens teilweise auf der Positionsdifferenz; und Verwenden der Objektgeschwindigkeit zum Steuern des Roboterfahrzeugs.
  20. Das Verfahren nach Anspruch 19, weiter mit: Empfangen einer Abtastrate, die dem Gewinnen der Mehrzahl von Punkten zugehörig ist; Bestimmen der Richtung und des Radius des Objekts basierend wenigstens teilweise auf der Positionsdifferenz und der Abtastrate; und Verwenden der Richtung und des Radius zum Steuern des Roboterfahrzeugs.
  21. Das Verfahren nach Anspruch 19, weiter mit: Erzeugen eines Bahnsatzes, der eine Mehrzahl von Bahnen beinhaltet, wobei jede Bahn Befehle für die Roboterfahrzeugbewegung aufweist; Erzeugen eines Hindernisberichts mit Hinderniseigenschaften, wobei der Hindernisbericht eine Dichte der Objekte, die einem Roboterfahrzeugzeug zugehörig sind, umfasst; und Verwenden des Hindernisberichts zum Zuordnen einer Präferenz zu jeder Bahn.
  22. Ein Verfahren zum Erzeugen einer dreidimensionalen Hinderniskarte zur Verwendung in einem Robotersteuerfahrzeug, mit: Verwenden eines Laserscanners zum Ausführen einer ersten Abtastung eines Abtastbereichs; Gewinnen von zweidimensionalen Hindernisdatenpunkten, die Hindernisse repräsentieren, die in dem Abtastbereich angeordnet sind; Zuordnen von Abtastdaten zu den Hindernisdatenpunkten, wobei die Abtastdaten wenigstens Abtastbereichsdaten, die den Abtastbereich repräsentieren, Scannerwinkeldaten, die den Winkel des Laserscanners repräsentieren, Fahrzeuggeschwindigkeitsdaten oder einen Laserscannersychronisationsimpuls beinhalten; Senden der Abtastdaten- und Hindernisdatenpunkte an eine Robotersteuereinheit; Versehen der Abtastdatenpunkte mit Zeitangaben; und Erzeugen einer dreidimensionalen Hinderniskarte basierend wenigstens teilweise auf den mit einer Zeitangabe versehenen Hindernisdatenpunkten und Abtastdaten.
  23. Das Verfahren nach Anspruch 22, wobei das Aussenden der Abtastdaten und der Hindernisdatenpunkte an eine Robotersteuereinheit das Aussenden von Abtastdaten und Hindernisdatenpunkten an eine Hinderniskarte-Robotersteuereinheit aufweist; und wobei die Hinderniskarte-Robotersteuereinheit die Hindernisdatenpunkte mit Zeitangaben versieht.
  24. Das Verfahren nach Anspruch 23, weiter mit: Schaffen einer Überwachungs-Robotersteuereinheit zum Erzeugen der Hinderniskarte.
  25. Das Verfahren nach Anspruch 22, wobei die Hinderniskarte verwendet wird zum Steuern des robotergesteuerten Fahrzeugs.
  26. Ein Verfahren zum Wandeln dreidimensionaler Hindernisdaten in zweidimensionale Hindernisdaten zum Steuern eines Roboterfahrzeugs, mit: Gewinnen einer Mehrzahl von dreidimensionalen mit Zeitangaben versehenen Hindernisdaten von einem Laserscanner, wobei die Hindernisdaten den Ort eines Hindernisses repräsentieren; Empfangen von mit einer Zeitangabe versehenen Geschwindigkeitsdaten des Roboterfahrzeugs; Vergleichen der Hindernisdaten zum Vorbestimmen von Kriterien zum Trennen der Hindernisdaten in relevante Hindernisdaten und irrelevante Hindernisdaten, wobei die irrelevanten Hindernisdaten außerhalb der vorbestimmten Kriterien liegen; Vernachlässigen der irrelevanten Hindernisdaten; Korrelieren der relevanten Hindernisdaten mit einer zweidimensionalen Punktwolke, die einen Index von Punktfeldern repräsentiert; und Erzeugen einer zweidimensionalen Hinderniskarte basierend wenigstens teilweise auf dem Punktfeld.
  27. Das Verfahren nach Anspruch 26, weiter mit: Vernachlässigen von Hindernisdaten mit Zeitangaben, die älter sind als ein vorgegebener Schwellenwert.
  28. Das Verfahren nach Anspruch 26, weiter mit: Filtern der Punktwolke zum Entfernen relevanter Hindernisdaten mit einer Position jenseits einer vorgegebenen Entfernung von dem robotergesteuerten Fahrzeug; und Überschreiben von Hinderniskartendaten mit einer Zeitangabe, die außerhalb eines vorgegebenen Schwellenwerts ist mit zusätzlichen Hinderniskartendaten.
  29. Ein Roboterfahrzeug mit: einer vorderen Sensoranordnung zum Ausführen einer Abtastung des vorne gelegenen Bereichs zum Gewinnen von vorderen Daten, die Hindernisse oder Objekte repräsentieren, die wenigstens vor dem Fahrzeug liegen; einer hinteren Sensoranordnung zum Ausführen einer rückwärtigen Bereichsabtastung zum Gewinnen von rückwärtigen Daten, die Hindernisse oder Objekte, die wenigstens teilweise hinter dem Fahrzeug liegen, repräsentieren; und einer Robotersteuereinheit zum Empfangen der vorderen und rückwärtigen Daten und Erzeugen einer Hinderniskarte basierend auf vorderen und rückwärtigen Daten, wobei die Robotersteuereinheit aufweist: die Hinderniskarte; eine Bereichsschutzanwendung zum Erkennen von Unterbrechungen in den vorderen und rückwärtigen Daten und Ersetzen, basierend wenigstens teilweise auf den Unterbrechungen, von Daten, die das Vorhandensein von Hindernissen in dem vorderen und rückwärtigen Abtastbereich angeben; und eine Steueranwendung zum Bestimmen einer Bahn basierend wenigstens teilweise auf der Hinderniskarte und Ausgeben von Steuerbefehlen an eine Fahrzeugsteuereinheit basierend wenigstens teilweise auf der Bahn.
  30. Das Roboterfahrzeug nach Anspruch 29, wobei die vordere Sensoranordnung wenigstens einen Scanner aufweist.
  31. Das Roboterfahrzeug nach Anspruch 29, wobei die rückwärtige Sensoranordnung einen Laserscanner aufweist.
  32. Das Roboterfahrzeug nach Anspruch 29, wobei das Roboterfahrzeug angepasst ist zum Betrieb in einer Betriebsart, wobei die Betriebsart wenigstens einen GPS-Wegpunkt, eine Fernbedienung, ein „Follow Me" und ein teach und playback aufweist.
  33. Das Roboterfahrzeug nach Anspruch 32, wobei die Robotersteuereinheit eingerichtet ist zum Ändern einer robotergesteuerten Fahrzeuggeschwindigkeit und -richtung, wie sie angegeben ist durch die Betriebsart basierend auf der Hinderniskarte.
DE112006003007.8T 2005-10-21 2006-10-20 Systeme und Verfahren zum Vermeiden von Hindernissen Active DE112006003007B4 (de)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US72944505P 2005-10-21 2005-10-21
US72938805P 2005-10-21 2005-10-21
US60/729,445 2005-10-21
US60/729,388 2005-10-21
US78038906P 2006-03-08 2006-03-08
US60/780,389 2006-03-08
US83870406P 2006-08-18 2006-08-18
US60/838,704 2006-08-18
PCT/US2006/041227 WO2007048029A2 (en) 2005-10-21 2006-10-20 Systems and methods for obstacle avoidance

Publications (2)

Publication Number Publication Date
DE112006003007T5 true DE112006003007T5 (de) 2008-10-16
DE112006003007B4 DE112006003007B4 (de) 2021-09-02

Family

ID=37735001

Family Applications (4)

Application Number Title Priority Date Filing Date
DE112006003044T Pending DE112006003044T5 (de) 2005-10-21 2006-10-20 Vielseitiges Robotersteuermodul
DE112006002894.4T Active DE112006002894B4 (de) 2005-10-21 2006-10-20 Vernetztes Vielzweck-Roboterfahrzeug
DE112006003007.8T Active DE112006003007B4 (de) 2005-10-21 2006-10-20 Systeme und Verfahren zum Vermeiden von Hindernissen
DE112006002892.8T Active DE112006002892B4 (de) 2005-10-21 2006-10-20 Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE112006003044T Pending DE112006003044T5 (de) 2005-10-21 2006-10-20 Vielseitiges Robotersteuermodul
DE112006002894.4T Active DE112006002894B4 (de) 2005-10-21 2006-10-20 Vernetztes Vielzweck-Roboterfahrzeug

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112006002892.8T Active DE112006002892B4 (de) 2005-10-21 2006-10-20 Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs

Country Status (6)

Country Link
US (8) US7894951B2 (de)
AU (4) AU2006304838B2 (de)
DE (4) DE112006003044T5 (de)
GB (1) GB2445507B (de)
IL (1) IL191001A (de)
WO (4) WO2007048003A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210209367A1 (en) * 2018-05-22 2021-07-08 Starship Technologies Oü Method and system for analyzing robot surroundings
EP2622955B2 (de) 2012-01-31 2021-08-18 Deere & Company Landwirtschaftliche Maschine mit einem System zur selbsttätigen Einstellung eines Bearbeitungsparameters und zugehöriges Verfahren

Families Citing this family (785)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7510038B2 (en) * 2003-06-11 2009-03-31 Delphi Technologies, Inc. Steering system with lane keeping integration
DE102005008714A1 (de) * 2005-02-25 2006-09-07 Robert Bosch Gmbh Verfahren und System zur Bereitstellung von Sensor-Daten
FR2891600B1 (fr) * 2005-10-05 2009-03-27 Bosch Gmbh Robert Procede de reglage d'un frein de stationnemnt automatique.
DE112006003044T5 (de) * 2005-10-21 2008-10-23 Deere & Company, Moline Vielseitiges Robotersteuermodul
US10331136B2 (en) 2006-02-27 2019-06-25 Perrone Robotics, Inc. General purpose robotics operating system with unmanned and autonomous vehicle extensions
US8050863B2 (en) 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
US7703020B2 (en) * 2006-03-31 2010-04-20 General Electric Company Medical diagnostic system interface
US8108092B2 (en) 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
US8326469B2 (en) * 2006-07-14 2012-12-04 Irobot Corporation Autonomous behaviors for a remote vehicle
DE102006031580A1 (de) 2006-07-03 2008-01-17 Faro Technologies, Inc., Lake Mary Verfahren und Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
US8073564B2 (en) * 2006-07-05 2011-12-06 Battelle Energy Alliance, Llc Multi-robot control interface
US7801644B2 (en) 2006-07-05 2010-09-21 Battelle Energy Alliance, Llc Generic robot architecture
US8271132B2 (en) * 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US8965578B2 (en) * 2006-07-05 2015-02-24 Battelle Energy Alliance, Llc Real time explosive hazard information sensing, processing, and communication for autonomous operation
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US7974738B2 (en) 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US8843244B2 (en) 2006-10-06 2014-09-23 Irobot Corporation Autonomous behaviors for a remove vehicle
US9404749B2 (en) * 2006-08-23 2016-08-02 Leica Geosystems Ag Control unit for off-road vehicles including housing configured to fit within pre-existing cavity of off-road-vehicle cab
US8983680B2 (en) * 2006-08-24 2015-03-17 Kairos Autonmi, Inc. Unmanned vehicle retrofitting system
US8051936B1 (en) * 2006-08-30 2011-11-08 The United States Of America As Represented By The Secretary Of The Navy Human-portable remote control driving system
US7600593B2 (en) * 2007-01-05 2009-10-13 Irobot Corporation Robotic vehicle with dynamic range actuators
EP2070076A4 (de) * 2006-10-06 2012-11-21 Irobot Corp Autonomes verhalten für ein fernsteuerfahrzeug
US20100179715A1 (en) * 2006-12-11 2010-07-15 Bae Systems Plc Controlling an autonomous vehicle system
US8768558B2 (en) 2007-01-05 2014-07-01 Agjunction Llc Optical tracking vehicle control system and method
US7835832B2 (en) * 2007-01-05 2010-11-16 Hemisphere Gps Llc Vehicle control system
USRE48527E1 (en) 2007-01-05 2021-04-20 Agjunction Llc Optical tracking vehicle control system and method
EP1967931A3 (de) * 2007-03-06 2013-10-30 Yamaha Hatsudoki Kabushiki Kaisha Fahrzeug
US10157422B2 (en) 2007-05-10 2018-12-18 Allstate Insurance Company Road segment safety rating
US8606512B1 (en) 2007-05-10 2013-12-10 Allstate Insurance Company Route risk mitigation
US10096038B2 (en) 2007-05-10 2018-10-09 Allstate Insurance Company Road segment safety rating system
US9932033B2 (en) 2007-05-10 2018-04-03 Allstate Insurance Company Route risk mitigation
US8255092B2 (en) * 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
EP2147386B1 (de) * 2007-05-14 2021-06-09 FLIR Detection, Inc. Autonomes verhalten für ein fernsteuerfahrzeug
US8918245B2 (en) * 2007-06-05 2014-12-23 Snap-On Incorporated Methods and systems for providing open access to vehicle data
DE202007008557U1 (de) * 2007-06-19 2008-10-30 Liebherr-Werk Bischofshofen Ges.M.B.H. System zum automatischen Bewegen von Material
DE102007043534A1 (de) * 2007-09-12 2009-03-19 Robert Bosch Gmbh Anordnung zum Erfassen einer Umgebung
WO2009038772A2 (en) 2007-09-20 2009-03-26 Evolution Robotics Transferable intelligent control device
US7979174B2 (en) * 2007-09-28 2011-07-12 Honeywell International Inc. Automatic planning and regulation of the speed of autonomous vehicles
US20090088916A1 (en) * 2007-09-28 2009-04-02 Honeywell International Inc. Method and system for automatic path planning and obstacle/collision avoidance of autonomous vehicles
FR2926051B1 (fr) * 2008-01-03 2010-05-21 Rise Ba Dispositif modulaire de pilotage pour un chariot automoteur
US8078399B2 (en) * 2008-03-10 2011-12-13 Honeywell International Inc. Method and device for three-dimensional path planning to avoid obstacles using multiple planes
US8175848B2 (en) * 2008-03-21 2012-05-08 Rochester Institute Of Technology Data processing systems and methods
US20090259399A1 (en) * 2008-04-15 2009-10-15 Caterpillar Inc. Obstacle detection method and system
US8374743B2 (en) 2008-05-16 2013-02-12 GM Global Technology Operations LLC Method and apparatus for driver control of a limited-ability autonomous vehicle
DE102008027282A1 (de) * 2008-06-06 2009-12-10 Claas Industrietechnik Gmbh Landwirtschaftliches Fahrzeug und Betriebsverfahren dafür
US8326954B2 (en) * 2008-07-23 2012-12-04 Caterpillar Inc. System and method for synchronizing configurations in a controller network
US20100023185A1 (en) * 2008-07-28 2010-01-28 Torc Technologies, Llc Devices and methods for waypoint target generation and mission spooling for mobile ground robots
US8229618B2 (en) * 2008-09-11 2012-07-24 Deere & Company Leader-follower fully autonomous vehicle with operator on side
US8989972B2 (en) 2008-09-11 2015-03-24 Deere & Company Leader-follower fully-autonomous vehicle with operator on side
US8478493B2 (en) * 2008-09-11 2013-07-02 Deere & Company High integrity perception program
US20100063652A1 (en) * 2008-09-11 2010-03-11 Noel Wayne Anderson Garment for Use Near Autonomous Machines
US8224500B2 (en) 2008-09-11 2012-07-17 Deere & Company Distributed knowledge base program for vehicular localization and work-site management
US9235214B2 (en) * 2008-09-11 2016-01-12 Deere & Company Distributed knowledge base method for vehicular localization and work-site management
US8195342B2 (en) * 2008-09-11 2012-06-05 Deere & Company Distributed knowledge base for vehicular localization and work-site management
US8195358B2 (en) 2008-09-11 2012-06-05 Deere & Company Multi-vehicle high integrity perception
US8818567B2 (en) * 2008-09-11 2014-08-26 Deere & Company High integrity perception for machine localization and safeguarding
US9026315B2 (en) 2010-10-13 2015-05-05 Deere & Company Apparatus for machine coordination which maintains line-of-site contact
US8392065B2 (en) * 2008-09-11 2013-03-05 Deere & Company Leader-follower semi-autonomous vehicle with operator on side
US9188980B2 (en) * 2008-09-11 2015-11-17 Deere & Company Vehicle with high integrity perception system
US8121749B1 (en) 2008-09-25 2012-02-21 Honeywell International Inc. System for integrating dynamically observed and static information for route planning in a graph based planner
US8437901B2 (en) * 2008-10-15 2013-05-07 Deere & Company High integrity coordination for multiple off-road vehicles
US8639408B2 (en) * 2008-10-15 2014-01-28 Deere & Company High integrity coordination system for multiple off-road vehicles
US8930058B1 (en) * 2008-10-20 2015-01-06 The United States Of America As Represented By The Secretary Of The Navy System and method for controlling a vehicle traveling along a path
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US20100155156A1 (en) * 2008-11-04 2010-06-24 Robotic Technology Inc. Energetically autonomous tactical robot and associated methodology of operation
US8237389B2 (en) * 2008-11-12 2012-08-07 Irobot Corporation Multi mode safety control module
US8170770B2 (en) * 2008-11-18 2012-05-01 Bendix Commercial Vehicle Systems Llc Adaptive cruise control braking with deceleration monitoring
DE102008062994B4 (de) * 2008-12-23 2017-12-28 Ipetronik Gmbh & Co. Kg Messanordnung
DE102008064896B3 (de) 2008-12-23 2018-08-30 Ipetronik Gmbh & Co. Kg Messanordnung
DE102009010465B3 (de) * 2009-02-13 2010-05-27 Faro Technologies, Inc., Lake Mary Laserscanner
US8386090B1 (en) 2009-02-13 2013-02-26 Brinly-Hardy Company System and method for wireless remote operation of an accessory associated with a vehicle
US20100217462A1 (en) * 2009-02-23 2010-08-26 Glenn Robert Shaffer Operating system and method for controlling a powered vehicle
US8295998B2 (en) * 2009-05-11 2012-10-23 General Electric Company System, method, and computer software code for distributing and managing data for use by a plurality of subsystems on a locomotive
KR101540797B1 (ko) * 2009-03-12 2015-07-30 삼성전자 주식회사 무선 통신 기기의 연결 방법 및 이를 이용한 무선 통신 기기
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9164508B1 (en) 2009-04-16 2015-10-20 Kairos Autonomi Unmanned vehicle retrofitting system
US20100286845A1 (en) * 2009-05-11 2010-11-11 Andrew Karl Wilhelm Rekow Fail-safe system for autonomous vehicle
US8564657B2 (en) * 2009-05-29 2013-10-22 Honda Research Institute Europe Gmbh Object motion detection system based on combining 3D warping techniques and a proper object motion detection
DE102009035337A1 (de) 2009-07-22 2011-01-27 Faro Technologies, Inc., Lake Mary Verfahren zum optischen Abtasten und Vermessen eines Objekts
CA2754159C (en) * 2009-08-11 2012-05-15 Certusview Technologies, Llc Systems and methods for complex event processing of vehicle-related information
US8396597B2 (en) * 2009-08-18 2013-03-12 Deere & Company Distributed robotic guidance
US20110046836A1 (en) * 2009-08-18 2011-02-24 Noel Wayne Anderson Modular and scalable positioning and navigation system
EP2296071A1 (de) * 2009-08-18 2011-03-16 Deere & Company Modulares und skalierbares Positionierungs- und Navigationssystem
US20110046784A1 (en) * 2009-08-18 2011-02-24 Noel Wayne Anderson Asymmetric stereo vision system
US9272724B2 (en) * 2009-09-08 2016-03-01 Golomb Mercantile Company Llc Integrated vehicle control system and apparatus
US8160728B2 (en) * 2009-09-14 2012-04-17 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of determining complete sensor requirements for autonomous mobility
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
US8369992B2 (en) 2009-09-22 2013-02-05 GM Global Technology Operations LLC Embedded diagnostic, prognostic, and health management system and method for a humanoid robot
DE102009048954A1 (de) 2009-10-10 2011-04-14 Daimler Ag Verfahren und Vorrichtung zum automatischen Betreiben eines Fahrzeugs in einem keine Nutzeraktion erfordernden autonomen Fahrbetrieb
DE102009055988B3 (de) 2009-11-20 2011-03-17 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
DE102009055989B4 (de) 2009-11-20 2017-02-16 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
KR101155565B1 (ko) * 2009-11-27 2012-06-19 한국전자통신연구원 네트워크를 이용한 차량 제어 방법 및 시스템
AT509438A1 (de) * 2010-01-18 2011-08-15 Zeno Track Gmbh Verfahren und system zum erfassen der position eines fahrzeuges in einem definierten bereich
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
US8028432B2 (en) 2010-01-20 2011-10-04 Faro Technologies, Inc. Mounting device for a coordinate measuring machine
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
DE102010001922A1 (de) * 2010-02-15 2011-08-18 Robert Bosch GmbH, 70469 Verfahren und Vorrichtung zum Parken eines Kraftfahrzeugs
DE102010002020A1 (de) * 2010-02-17 2011-08-18 Deere & Company, Ill. Vorrichtung zur Steuerung einer Parksperre für ein Kraftfahrzeug
US8508590B2 (en) * 2010-03-02 2013-08-13 Crown Equipment Limited Method and apparatus for simulating a physical environment to facilitate vehicle operation and task completion
US8538577B2 (en) * 2010-03-05 2013-09-17 Crown Equipment Limited Method and apparatus for sensing object load engagement, transportation and disengagement by automated vehicles
US8024469B1 (en) * 2010-03-05 2011-09-20 Brass Monkey Inc. System and method for connecting network sockets between applications
US8346426B1 (en) 2010-04-28 2013-01-01 Google Inc. User interface for displaying internal state of autonomous driving system
US8260482B1 (en) * 2010-04-28 2012-09-04 Google Inc. User interface for displaying internal state of autonomous driving system
US8849518B2 (en) * 2010-05-07 2014-09-30 Ford Global Technologies, Llc Method and system for automatic wheel positioning
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
CA2740329C (en) 2010-05-13 2017-06-13 Hubert Roberge Transmission control system and method thereof
JP5503419B2 (ja) * 2010-06-03 2014-05-28 株式会社日立製作所 無人搬送車および走行制御方法
JP5382218B2 (ja) * 2010-06-16 2014-01-08 トヨタ自動車株式会社 運転支援装置
DE102010032723B3 (de) 2010-07-26 2011-11-24 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010032726B3 (de) 2010-07-26 2011-11-24 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010032725B4 (de) 2010-07-26 2012-04-26 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010033561B3 (de) 2010-07-29 2011-12-15 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8924067B2 (en) * 2010-10-12 2014-12-30 Caterpillar Inc. Autonomous machine control system
US20120089291A1 (en) * 2010-10-12 2012-04-12 Halder Bibhrajit Autonomous machine control system
US8750319B2 (en) * 2010-11-03 2014-06-10 Broadcom Corporation Data bridge
DE102010050790A1 (de) * 2010-11-10 2012-05-10 Claas Selbstfahrende Erntemaschinen Gmbh Verfahren zur Lokalisierung eines landwirtschaftlichen Arbeitsgerätes
DE102010060505A1 (de) * 2010-11-11 2012-05-16 Gottwald Port Technology Gmbh Containertransportfahrzeug
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
US8620489B2 (en) * 2010-12-24 2013-12-31 Microsoft Corporation Robotic drive system modularity
US8863256B1 (en) 2011-01-14 2014-10-14 Cisco Technology, Inc. System and method for enabling secure transactions using flexible identity management in a vehicular environment
KR101809973B1 (ko) * 2011-01-24 2017-12-19 삼성전자주식회사 로봇 제어 시스템 및 로봇 제어 방법
TW201238723A (en) * 2011-01-31 2012-10-01 Robotex Inc Robotic arm system
US8791911B2 (en) 2011-02-09 2014-07-29 Robotzone, Llc Multichannel controller
AU2012246717A1 (en) 2011-02-25 2013-09-12 Vnomics Corp. System and method for in-vehicle operator training
US20120233102A1 (en) * 2011-03-11 2012-09-13 Toyota Motor Engin. & Manufact. N.A.(TEMA) Apparatus and algorithmic process for an adaptive navigation policy in partially observable environments
US9237534B2 (en) * 2011-03-25 2016-01-12 General Motors Llc Mobile application DRx synchronization with embedded vehicle hardware
JP5853205B2 (ja) * 2011-03-29 2016-02-09 パナソニックIpマネジメント株式会社 車両制御装置
FR2973963B1 (fr) * 2011-04-08 2013-04-12 Valeo Sys Controle Moteur Sas Dispositif de transfert de charge et procede de gestion associe
AU2012243484B2 (en) 2011-04-11 2014-10-30 Crown Equipment Corporation Method and apparatus for efficient scheduling for multiple automated non-holonomic vehicles using a coordinated path planner
DE102011007914A1 (de) * 2011-04-21 2012-10-25 Deere & Company Datenkommunikationsschnittstelle für ein landwirtschaftliches Nutzfahrzeug
US9581997B1 (en) * 2011-04-22 2017-02-28 Angel A. Penilla Method and system for cloud-based communication for automatic driverless movement
US8078349B1 (en) * 2011-05-11 2011-12-13 Google Inc. Transitioning a mixed-mode vehicle to autonomous mode
US8738198B2 (en) * 2011-05-26 2014-05-27 Foster-Miller, Inc. Robot surveillance system and method
US8655588B2 (en) 2011-05-26 2014-02-18 Crown Equipment Limited Method and apparatus for providing accurate localization for an industrial vehicle
US8548671B2 (en) 2011-06-06 2013-10-01 Crown Equipment Limited Method and apparatus for automatically calibrating vehicle parameters
US9390617B2 (en) * 2011-06-10 2016-07-12 Robotzone, Llc Camera motion control system with variable autonomy
US8589012B2 (en) 2011-06-14 2013-11-19 Crown Equipment Limited Method and apparatus for facilitating map data processing for industrial vehicle navigation
US8594923B2 (en) 2011-06-14 2013-11-26 Crown Equipment Limited Method and apparatus for sharing map data associated with automated industrial vehicles
US8994521B2 (en) * 2011-06-29 2015-03-31 GM Global Technology Operations LLC Steering wheels for vehicle control in manual and autonomous driving
EP2737375B1 (de) * 2011-07-27 2016-11-16 ABB Schweiz AG System zur befehlssteuerung eines roboters
JP5892360B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
US20140058634A1 (en) 2012-08-24 2014-02-27 Crown Equipment Limited Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
WO2013033171A1 (en) 2011-08-29 2013-03-07 Crown Equipment Corporation Multimode vehicular navigation control
CN108415412A (zh) * 2011-08-29 2018-08-17 克朗设备公司 车辆导航控制接口
BR112014004809A2 (pt) 2011-08-29 2017-03-21 Crown Equip Corp sistema, método, e, veículo
US9056754B2 (en) 2011-09-07 2015-06-16 Crown Equipment Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
DE102012216218A1 (de) * 2011-09-12 2013-03-14 Continental Teves Ag & Co. Ohg Sensorsystem umfassend ein Fusionsfilter zur gemeinsamen Signalverarbeitung
DE102011117116B4 (de) * 2011-10-27 2014-02-13 Diehl Bgt Defence Gmbh & Co. Kg Steuereinrichtung zum wenigstens teilweise autonomen Betrieb eines Fahrzeugs und Fahrzeug mit solch einer Steuereinrichtung
US9235987B2 (en) * 2011-11-17 2016-01-12 GM Global Technology Operations LLC System and method for closed-loop driver attention management
DE102011121255B3 (de) * 2011-12-15 2013-04-18 Lear Corporation Gmbh Steuersystem eines Kraftfahrzeugs mit vereinfachtem Informationsaustausch
US20130201316A1 (en) * 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US8855847B2 (en) 2012-01-20 2014-10-07 Toyota Motor Engineering & Manufacturing North America, Inc. Intelligent navigation system
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012002823A1 (de) 2012-02-11 2012-09-13 Daimler Ag Steuerungseinrichtung für ein Fahrzeug
US20140309872A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Customization of vehicle user interfaces based on user intelligence
TWI486874B (zh) * 2012-03-27 2015-06-01 華擎科技股份有限公司 電子裝置及開機方法
US9584711B2 (en) * 2012-04-04 2017-02-28 Schlumberger Technology Corporation Imaging methods and systems for controlling equipment in remote environments
US20130268138A1 (en) * 2012-04-05 2013-10-10 Caterpillar Inc. High Availability For Autonomous Machine Control System
CN103359051B (zh) * 2012-04-06 2016-03-30 比亚迪股份有限公司 车辆、车用智能钥匙装置、车辆遥控驾驶系统及方法
CN103359060B (zh) * 2012-04-06 2016-01-13 比亚迪股份有限公司 车辆、车用智能钥匙装置、车辆遥控驾驶系统及方法
CN103359050B (zh) * 2012-04-06 2016-03-30 比亚迪股份有限公司 车辆、车用智能钥匙装置、车辆遥控驾驶系统及方法
US8718861B1 (en) 2012-04-11 2014-05-06 Google Inc. Determining when to drive autonomously
US9315178B1 (en) * 2012-04-13 2016-04-19 Google Inc. Model checking for autonomous vehicles
US8700251B1 (en) * 2012-04-13 2014-04-15 Google Inc. System and method for automatically detecting key behaviors by vehicles
NL2008674C2 (nl) * 2012-04-20 2013-10-23 Lely Patent Nv Samenstel van autonome voertuigen.
US8744700B2 (en) * 2012-04-25 2014-06-03 Darren Beams Reversing vehicle remote telematics detection
US9080723B2 (en) * 2012-05-17 2015-07-14 Caterpillar Inc. Personnel classification and response system
US9014903B1 (en) * 2012-05-22 2015-04-21 Google Inc. Determination of object heading based on point cloud
US8909375B2 (en) * 2012-05-25 2014-12-09 The United States Of America, As Represented By The Secretary Of The Navy Nodding mechanism for a single-scan sensor
WO2014001098A1 (de) * 2012-06-26 2014-01-03 Schaeffler Technologies AG & Co. KG Verfahren zur protokoll-umsetzung für die programmierung von getriebe- und kupplungssteuergeräten
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
US9969081B2 (en) * 2012-07-27 2018-05-15 Alberto Daniel Lacaze Method and system for the directed control of robotic assets
US8983662B2 (en) * 2012-08-03 2015-03-17 Toyota Motor Engineering & Manufacturing North America, Inc. Robots comprising projectors for projecting images on identified projection surfaces
DE102012107544B3 (de) 2012-08-17 2013-05-23 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
KR102142162B1 (ko) 2012-08-27 2020-09-14 에이비 엘렉트로룩스 로봇 위치 선정 시스템
US9056395B1 (en) * 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
US8996228B1 (en) * 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
GB2505679B (en) * 2012-09-06 2015-02-18 Jaguar Land Rover Ltd Vehicle control system and method
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US9633564B2 (en) 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
US8949016B1 (en) 2012-09-28 2015-02-03 Google Inc. Systems and methods for determining whether a driving environment has changed
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US9529358B2 (en) 2012-11-06 2016-12-27 Kvaser Ab Remote control system and method and usage related to such a system
CN102929279B (zh) * 2012-11-07 2014-11-05 无锡普智联科高新技术有限公司 基于三维空间密集存储区域的多机器人路径规划方法
US8874282B2 (en) * 2012-11-14 2014-10-28 Lars-Berno Fredriksson Model vehicle remote control system
DE102012220818A1 (de) * 2012-11-14 2014-06-12 Continental Automotive Gmbh Vorrichtung zur Stromversorgung in einem Fahrzeug
US8942863B2 (en) * 2012-11-15 2015-01-27 Caterpillar Inc. Worksite position control system having integrity checking
US8825258B2 (en) 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
US9213331B2 (en) * 2012-12-19 2015-12-15 Caterpillar Inc. Remote control system for a machine
KR101449210B1 (ko) * 2012-12-27 2014-10-08 현대자동차주식회사 자율 주행 차량의 운전모드 전환 장치 및 그 방법
EP2944543B1 (de) * 2013-01-11 2016-11-09 Nissan Motor Co., Ltd. Lenksteuerungsvorrichtung und lenksteuerungsverfahren
US20140214256A1 (en) * 2013-01-25 2014-07-31 GM Global Technology Operations LLC Steering system for an autonomously driven vehicle and methods of steering the same
US9014874B2 (en) * 2013-01-29 2015-04-21 Foster-Miller, Inc. Tactical robot controller
US9155247B1 (en) 2013-02-26 2015-10-13 Jason Force Mobile platform based biomass powered harvester
KR101883475B1 (ko) * 2013-02-28 2018-07-31 한화지상방산 주식회사 소형통합제어장치
US8996224B1 (en) * 2013-03-15 2015-03-31 Google Inc. Detecting that an autonomous vehicle is in a stuck condition
US8849494B1 (en) 2013-03-15 2014-09-30 Google Inc. Data selection by an autonomous vehicle for trajectory modification
US9008890B1 (en) 2013-03-15 2015-04-14 Google Inc. Augmented trajectories for autonomous vehicles
US9333983B2 (en) * 2013-03-15 2016-05-10 Volkswagen Ag Dual-state steering wheel/input device
US9342074B2 (en) * 2013-04-05 2016-05-17 Google Inc. Systems and methods for transitioning control of an autonomous vehicle to a driver
CN105101855A (zh) 2013-04-15 2015-11-25 伊莱克斯公司 具有伸出的侧刷的机器人真空吸尘器
WO2014169943A1 (en) 2013-04-15 2014-10-23 Aktiebolaget Electrolux Robotic vacuum cleaner
US9513932B2 (en) 2013-04-30 2016-12-06 Deere & Company Virtual terminal display for a vehicle
CN104238380B (zh) * 2013-06-06 2018-04-27 泰科电子(上海)有限公司 一种用于电器的智能连接器模块
KR101491260B1 (ko) * 2013-06-07 2015-02-06 현대자동차주식회사 자동차용 ecu 다중 진단 시스템 및 방법
US20150005937A1 (en) * 2013-06-27 2015-01-01 Brain Corporation Action selection apparatus and methods
US10915113B2 (en) * 2013-07-02 2021-02-09 Ubiquity Robotics, Inc. Versatile autonomous mobile platform with 3-d imaging system
KR102096398B1 (ko) * 2013-07-03 2020-04-03 삼성전자주식회사 자율 이동 로봇의 위치 인식 방법
KR101470190B1 (ko) * 2013-07-09 2014-12-05 현대자동차주식회사 자율주행 시스템의 고장 처리 장치 및 그 방법
CN103425131B (zh) * 2013-08-15 2015-12-23 江苏大学 基于非光滑控制和扰动观测的农用拖拉机导航控制方法
IN2013MU02698A (de) * 2013-08-19 2015-06-19 Deere & Co
DE102013013867A1 (de) * 2013-08-20 2015-03-12 Audi Ag Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs
DE102013110864A1 (de) * 2013-10-01 2015-04-02 Volkswagen Aktiengesellschaft Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs
US9489623B1 (en) 2013-10-15 2016-11-08 Brain Corporation Apparatus and methods for backward propagation of errors in a spiking neuron network
DE102013220905A1 (de) * 2013-10-15 2015-04-16 Continental Automotive Gmbh Verfahren zum Führen eines Kraftfahrzeugs und Kraftfahrzeug zum Ausführen des Verfahrens
DE102013222048B4 (de) 2013-10-30 2023-10-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Aktivieren oder Deaktivieren einer automatischen Fahrfunktion
US20150127192A1 (en) * 2013-11-06 2015-05-07 Hitachi, Ltd Wireless vehicle control system
US9434431B2 (en) * 2013-11-11 2016-09-06 Lit Motors Corporation Intuitive drive-by-wire steering with redundant mechanical control
US9108584B2 (en) 2013-11-20 2015-08-18 Ford Global Technologies, Llc Multi-stage airbag in vehicle with reconfigurable interior
US9073574B2 (en) * 2013-11-20 2015-07-07 Ford Global Technologies, Llc Autonomous vehicle with reconfigurable interior
US9096150B2 (en) * 2013-11-20 2015-08-04 Ford Global Technologies, Llc Autonomous vehicle with reconfigurable seats
US9580033B2 (en) * 2013-11-20 2017-02-28 Ford Global Technologies, Llc Dual airbags in vehicle with reconfigurable interior
US9199553B2 (en) 2013-11-20 2015-12-01 Ford Global Technologies Autonomous vehicle with reconfigurable seats
US9227531B2 (en) 2013-11-20 2016-01-05 Ford Global Technologies, Llc Autonomous vehicle with reconfigurable seats
US8989944B1 (en) 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
US9364178B2 (en) 2013-11-26 2016-06-14 Elwha Llc Robotic vehicle control
JP6329642B2 (ja) 2013-12-10 2018-05-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd センサ融合
US20150168953A1 (en) * 2013-12-13 2015-06-18 Itrack Llc Autonomous self-leveling vehicle
CN105744872B (zh) 2013-12-19 2020-01-14 伊莱克斯公司 旋转侧刷的自适应速度控制
WO2015090397A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device
KR102124235B1 (ko) 2013-12-19 2020-06-24 에이비 엘렉트로룩스 주변 기록 기능을 갖는 로봇 청소 디바이스
KR102393550B1 (ko) 2013-12-19 2022-05-04 에이비 엘렉트로룩스 청소 영역의 우선순위를 정하는 방법
EP3082537B1 (de) 2013-12-19 2020-11-18 Aktiebolaget Electrolux Robotische reinigungsvorrichtung und verfahren zur bezugspunkterkennung
EP3082544B1 (de) 2013-12-19 2020-10-07 Aktiebolaget Electrolux Roboterstaubsauger mit seitlicher bürste,der sich in einem spiralmuster bewegt
KR102099495B1 (ko) 2013-12-19 2020-04-09 에이비 엘렉트로룩스 로봇 청소 장치가 장애물에 올라가는 것의 감지
EP3082539B1 (de) 2013-12-20 2019-02-20 Aktiebolaget Electrolux Staubbehälter
US9352745B1 (en) * 2013-12-30 2016-05-31 Daniel Theobald Method and apparatus for transporting a payload
US9283674B2 (en) 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
JP5850957B2 (ja) * 2014-01-15 2016-02-03 ファナック株式会社 遠隔地にあるロボット遠隔監視システム
CN106164849B (zh) * 2014-01-23 2021-01-29 马辛德拉公司 用于车辆的多模式控制系统
US10096067B1 (en) 2014-01-24 2018-10-09 Allstate Insurance Company Reward system related to a vehicle-to-vehicle communication system
US9390451B1 (en) 2014-01-24 2016-07-12 Allstate Insurance Company Insurance system related to a vehicle-to-vehicle communication system
US9355423B1 (en) 2014-01-24 2016-05-31 Allstate Insurance Company Reward system related to a vehicle-to-vehicle communication system
JP6028745B2 (ja) * 2014-01-24 2016-11-16 トヨタ自動車株式会社 車両用操舵制御装置
EP2907730B1 (de) 2014-01-29 2017-09-06 Steering Solutions IP Holding Corporation Erkennung von Händen am Lenkrad
US9739226B2 (en) * 2014-02-07 2017-08-22 Ford Global Technologies, Llc Walk-away vehicle shutdown
KR101536141B1 (ko) 2014-02-13 2015-07-13 현대자동차주식회사 이더넷과 can 통신 간의 신호 변환을 제공하는 차량용 장치 및 그 제어방법
KR101491622B1 (ko) * 2014-02-17 2015-02-11 연세대학교 산학협력단 자율 주행형 차량의 주행 제어 장치 및 방법
US9940676B1 (en) 2014-02-19 2018-04-10 Allstate Insurance Company Insurance system for analysis of autonomous driving
US10783586B1 (en) 2014-02-19 2020-09-22 Allstate Insurance Company Determining a property of an insurance policy based on the density of vehicles
US10803525B1 (en) * 2014-02-19 2020-10-13 Allstate Insurance Company Determining a property of an insurance policy based on the autonomous features of a vehicle
US10783587B1 (en) 2014-02-19 2020-09-22 Allstate Insurance Company Determining a driver score based on the driver's response to autonomous features of a vehicle
US10796369B1 (en) 2014-02-19 2020-10-06 Allstate Insurance Company Determining a property of an insurance policy based on the level of autonomy of a vehicle
US10046793B2 (en) * 2014-02-26 2018-08-14 GM Global Technology Operations LLC Methods and systems for automated driving
DE102014203541A1 (de) * 2014-02-27 2015-08-27 Continental Teves Ag & Co. Ohg Fahrerlos betreibbares Fahrzeug und Verfahren zum Betrieb eines solchen Fahrzeugs
US9722526B2 (en) * 2014-02-28 2017-08-01 Rockwell Automation Technologies, Inc. Modular motor drive communication system and method
US9722937B2 (en) 2014-02-28 2017-08-01 Rockwell Automation Technologies, Inc. Enhanced motor drive communication system and method
US9720410B2 (en) 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
US9465388B1 (en) 2014-03-03 2016-10-11 Google Inc. Remote assistance for an autonomous vehicle in low confidence situations
US9547989B2 (en) 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles
US20150195765A1 (en) * 2014-03-25 2015-07-09 Sanjay Bhardwaj Method, Apparatus and System for Connected Automobiles
EP3126990A4 (de) * 2014-04-02 2017-11-29 Continental Automotive GmbH Frühe rückfahrkameravideoanzeige in einer mehrprozessorarchitektur
US9681272B2 (en) 2014-04-23 2017-06-13 At&T Intellectual Property I, L.P. Facilitating mesh networks of connected movable objects
US9304515B2 (en) * 2014-04-24 2016-04-05 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Regional operation modes for autonomous vehicles
US9365213B2 (en) * 2014-04-30 2016-06-14 Here Global B.V. Mode transition for an autonomous vehicle
CN106660203B (zh) * 2014-05-09 2019-10-22 卡内基梅隆大学 用于机电系统中的模块化单元的系统和方法
US11669090B2 (en) 2014-05-20 2023-06-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US10354330B1 (en) 2014-05-20 2019-07-16 State Farm Mutual Automobile Insurance Company Autonomous feature use monitoring and insurance pricing
US10599155B1 (en) 2014-05-20 2020-03-24 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US10373259B1 (en) 2014-05-20 2019-08-06 State Farm Mutual Automobile Insurance Company Fully autonomous vehicle insurance pricing
US9972054B1 (en) 2014-05-20 2018-05-15 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US20150336575A1 (en) * 2014-05-21 2015-11-26 GM Global Technology Operations LLC Collision avoidance with static targets in narrow spaces
US9499348B2 (en) 2014-05-23 2016-11-22 Ty-Crop Manufacturing Ltd. Material handling conveyor vehicle
US10278333B2 (en) * 2014-05-26 2019-05-07 Institute Of Automation Chinese Academy Of Sciences Pruning robot system
JP2015230573A (ja) * 2014-06-05 2015-12-21 アルパイン株式会社 車両運転支援装置、方法およびプログラム
CA2893686A1 (en) * 2014-06-09 2015-12-09 Ty-Crop Manufacturing Ltd. Control system for material handling conveyor vehicle
US9798007B2 (en) 2014-07-01 2017-10-24 Sikorsky Aircraft Corporation Obstacle data model construction system with range sensor shadows and use in motion planning
EP3167341B1 (de) 2014-07-10 2018-05-09 Aktiebolaget Electrolux Verfahren zur erkennung eines messfehlers in einer robotischen reinigungsvorrichtung
US10055726B2 (en) * 2014-07-14 2018-08-21 Jpmorgan Chase Bank, N.A. Systems and methods for management of mobile banking resources
US9726463B2 (en) 2014-07-16 2017-08-08 Robtozone, LLC Multichannel controller for target shooting range
DE102014213959A1 (de) 2014-07-17 2016-01-21 Continental Automotive Gmbh Verfahren zum Überwachen eines automatisierten Fahrens
US9786154B1 (en) 2014-07-21 2017-10-10 State Farm Mutual Automobile Insurance Company Methods of facilitating emergency assistance
US20160027303A1 (en) * 2014-07-22 2016-01-28 Advanced Technology & Research Corp. Active detection system for low ground clearance vehicles
EP3862837B1 (de) 2014-07-30 2023-05-03 SZ DJI Technology Co., Ltd. Systeme und verfahren zur zielverfolgung
US10209062B1 (en) * 2014-08-01 2019-02-19 Google Llc Use of offline algorithm to determine location from previous sensor data when location is requested
US9844880B1 (en) 2014-08-07 2017-12-19 Kairos Autonomi, Inc. Unmanned vehicle retrofitting applique assembly
US9321461B1 (en) 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
JP6278539B2 (ja) * 2014-09-05 2018-02-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 状況に基づく飛行モード選択
JP6181300B2 (ja) 2014-09-05 2017-08-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の速度を制御するシステム
CN110174903B (zh) 2014-09-05 2023-05-09 深圳市大疆创新科技有限公司 用于在环境内控制可移动物体的系统和方法
DE102014217848A1 (de) * 2014-09-08 2016-03-10 Continental Automotive Gmbh Fahrerassistenzsystem
JP6459098B2 (ja) 2014-09-08 2019-01-30 アクチエボラゲット エレクトロルックス ロボット真空掃除機
WO2016037635A1 (en) 2014-09-08 2016-03-17 Aktiebolaget Electrolux Robotic vacuum cleaner
CN105487424A (zh) * 2014-09-16 2016-04-13 陕西汽车集团有限责任公司 专用车上装电气控制系统用控制装置及专用车
WO2016048372A1 (en) * 2014-09-26 2016-03-31 Nissan North America, Inc. Method and system of assisting a driver of a vehicle
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
US10188029B1 (en) * 2014-10-20 2019-01-29 Hydro-Gear Limited Partnership Method of generating a three-dimensional map of a lawn and its use to improve mowing efficiency
DE102014221682A1 (de) * 2014-10-24 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
JP6520048B2 (ja) * 2014-10-30 2019-05-29 村田機械株式会社 移動体
US9494935B2 (en) 2014-11-13 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Remote operation of autonomous vehicle in unexpected environment
US11127290B1 (en) 2014-11-13 2021-09-21 State Farm Mutual Automobile Insurance Company Autonomous vehicle infrastructure communication device
DE102014116882B4 (de) * 2014-11-18 2018-05-24 B. Strautmann & Söhne GmbH u. Co. KG Verfahren zur Entnahme von Futtermitteln aus Fahrsilos
EP3222391B1 (de) 2014-11-19 2020-04-22 Positec Technology (China) Co., Ltd. Selbstbewegender roboter
CN105701789A (zh) * 2014-11-26 2016-06-22 沈阳飞机工业(集团)有限公司 飞机近场飞行轨迹跟踪方法
EP3230814B1 (de) 2014-12-10 2021-02-17 Aktiebolaget Electrolux Verwendung eines lasersensors zur bodentypdetektion
WO2016091320A1 (en) 2014-12-12 2016-06-16 Aktiebolaget Electrolux Side brush and robotic cleaner
WO2016100219A1 (en) 2014-12-15 2016-06-23 Polaris Industires Inc. Autonomous ready vehicle
KR101941938B1 (ko) * 2014-12-15 2019-01-24 한화디펜스 주식회사 소형통합제어장치
EP3234714B1 (de) 2014-12-16 2021-05-12 Aktiebolaget Electrolux Erfahrungsbasierte karte einer robotischen reinigungsvorrichtung
EP3234713B1 (de) 2014-12-16 2022-06-15 Aktiebolaget Electrolux Reinigungsverfahren für eine robotische reinigungsvorrichtung
US9471062B1 (en) * 2014-12-30 2016-10-18 Daniel Theobald Vehicle operating method and system
US10500955B2 (en) * 2014-12-30 2019-12-10 Visteon Global Technologies, Inc. Automatic upgrade of a vehicle-based processor based on a physical component change
US10518407B2 (en) 2015-01-06 2019-12-31 Discovery Robotics Apparatus and methods for providing a reconfigurable robotic platform
US11400595B2 (en) 2015-01-06 2022-08-02 Nexus Robotics Llc Robotic platform with area cleaning mode
US20160209185A1 (en) * 2015-01-15 2016-07-21 George Ford Remote control target and method of use
DE102015201010A1 (de) * 2015-01-22 2016-07-28 Robert Bosch Gmbh Vorrichtung zum Ansteuern eines Kraftfahrzeugs
JP6375237B2 (ja) * 2015-01-28 2018-08-15 日立オートモティブシステムズ株式会社 自動運転制御装置
US10026581B2 (en) * 2015-03-06 2018-07-17 Asa Electronics, Llc Switch override system for recreation vehicle controls
JP6631018B2 (ja) * 2015-03-10 2020-01-15 オムロン株式会社 リアクトル、基板モジュール、および電気機器
US10175040B2 (en) 2015-03-20 2019-01-08 Process Metrix Characterization of refractory lining of metallurgical vessels using autonomous scanners
JP6304086B2 (ja) * 2015-03-23 2018-04-04 トヨタ自動車株式会社 自動運転装置
US9751558B2 (en) 2015-03-25 2017-09-05 Ford Global Technologies, Llc Handwheel obstruction detection and inertia compensation
US9616928B2 (en) 2015-03-25 2017-04-11 Ford Global Technologies, Llc Steering angle control for multiple features
US9989636B2 (en) 2015-03-26 2018-06-05 Deere & Company Multi-use detection system for work vehicle
US10459524B2 (en) * 2015-04-14 2019-10-29 Northrop Grumman Systems Corporation Multi-sensor control system and method for remote signaling control of unmanned vehicles
US9499202B2 (en) * 2015-04-15 2016-11-22 Delphi Technologies, Inc. Steering system and method for autonomous vehicles
CN107405034B (zh) 2015-04-17 2022-09-13 伊莱克斯公司 机器人清洁设备以及控制所述机器人清洁设备的方法
JP2016203718A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 車両の制御装置
US10351159B2 (en) 2015-05-01 2019-07-16 Steering Solutions Ip Holding Corporation Retractable steering column with a radially projecting attachment
US10589774B2 (en) 2015-05-01 2020-03-17 Steering Solutions Ip Holding Corporation Counter rotation steering wheel
US9612596B2 (en) * 2015-05-05 2017-04-04 Ford Global Technologies, Llc Hands-off steering wheel governed by pedestrian detection
US10167015B2 (en) 2015-05-11 2019-01-01 GM Global Technology Operations LLC System for retrofitting vehicle automation
US9919724B2 (en) 2015-05-29 2018-03-20 Steering Solutions Ip Holding Corporation Retractable steering column with manual retrieval
US9690290B2 (en) * 2015-06-04 2017-06-27 Toyota Motor Engineering & Manufacturing North America, Inc. Situation-based transfer of vehicle sensor data during remote operation of autonomous vehicles
US9957108B2 (en) 2015-06-08 2018-05-01 Continental Intermodal Group-Trucking Llc Conveyor transition for material handling
US11560169B2 (en) 2015-06-11 2023-01-24 Steering Solutions Ip Holding Corporation Retractable steering column system and method
US10343706B2 (en) 2015-06-11 2019-07-09 Steering Solutions Ip Holding Corporation Retractable steering column system, vehicle having the same, and method
JP2017001597A (ja) 2015-06-15 2017-01-05 トヨタ自動車株式会社 自動運転装置
DE102016110791A1 (de) 2015-06-15 2016-12-15 Steering Solutions Ip Holding Corporation Gestensteuerung für ein einfahrbares Lenkrad
US10577009B2 (en) 2015-06-16 2020-03-03 Steering Solutions Ip Holding Corporation Retractable steering column assembly and method
DE102015211218A1 (de) 2015-06-18 2016-12-22 Robert Bosch Gmbh Steuereinrichtung und Verfahren zur Steuerung einer autonomen mobilen Plattform
US9802638B1 (en) * 2015-06-19 2017-10-31 Waymo Llc Removable manual controls for an autonomous vehicle
US9828016B2 (en) 2015-06-24 2017-11-28 Steering Solutions Ip Holding Corporation Retractable steering column system, vehicle having the same, and method
DE102016111473A1 (de) 2015-06-25 2016-12-29 Steering Solutions Ip Holding Corporation Stationäre lenkradbaugruppe und verfahren
US20160375931A1 (en) 2015-06-25 2016-12-29 Steering Solutions Ip Holding Corporation Rotation control system for a steering wheel and method
US10112639B2 (en) 2015-06-26 2018-10-30 Steering Solutions Ip Holding Corporation Vehicle steering arrangement and method of making same
US9944307B2 (en) 2015-06-26 2018-04-17 Steering Solutions Ip Holding Corporation Steering assembly and method of monitoring a space within vehicle
US9845103B2 (en) 2015-06-29 2017-12-19 Steering Solutions Ip Holding Corporation Steering arrangement
US9840271B2 (en) 2015-06-29 2017-12-12 Steering Solutions Ip Holding Corporation Retractable steering column with rake limiter
EP3118071B1 (de) * 2015-07-13 2021-09-08 Volvo Car Corporation Sicherheitsbremsvorrichtung und verfahren zur sicherheitsbremsung eines autonomen fahrzeugs
US9588517B2 (en) 2015-07-14 2017-03-07 Delphi Technologies, Inc. Automated vehicle control take-over alert timing based on infotainment activation
JP6350428B2 (ja) * 2015-07-22 2018-07-04 トヨタ自動車株式会社 車載記録システム
GB201512964D0 (en) * 2015-07-22 2015-09-02 Cambridge Medical Robotics Ltd Communication paths for robot arms
KR101962889B1 (ko) * 2015-07-27 2019-03-28 한국전자통신연구원 작업환경 변화에 적응적인 로봇 동작 데이터 제공장치 및 그 방법
US9849904B2 (en) 2015-07-31 2017-12-26 Steering Solutions Ip Holding Corporation Retractable steering column with dual actuators
US9849864B2 (en) 2015-07-31 2017-12-26 Ford Global Technologies, Llc Vehicle parking assist system
US9869560B2 (en) 2015-07-31 2018-01-16 International Business Machines Corporation Self-driving vehicle's response to a proximate emergency vehicle
US9483948B1 (en) 2015-08-07 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and pedestrians
US9785145B2 (en) * 2015-08-07 2017-10-10 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9721397B2 (en) 2015-08-11 2017-08-01 International Business Machines Corporation Automatic toll booth interaction with self-driving vehicles
KR102294634B1 (ko) * 2015-08-12 2021-08-26 현대자동차주식회사 네트워크에서 통신 노드의 동작 방법
US9764736B2 (en) * 2015-08-14 2017-09-19 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation relative to unexpected dynamic objects
US9718471B2 (en) 2015-08-18 2017-08-01 International Business Machines Corporation Automated spatial separation of self-driving vehicles from manually operated vehicles
US9481366B1 (en) 2015-08-19 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
DE102015215807A1 (de) * 2015-08-19 2017-02-23 Zf Friedrichshafen Ag Entfernte Fahrerunterstützung
US9896100B2 (en) 2015-08-24 2018-02-20 International Business Machines Corporation Automated spatial separation of self-driving vehicles from other vehicles based on occupant preferences
US20210272207A1 (en) 2015-08-28 2021-09-02 State Farm Mutual Automobile Insurance Company Vehicular driver profiles and discounts
CN106483875B (zh) * 2015-08-31 2021-09-03 比亚迪股份有限公司 汽车控制器、系统以及在汽车控制器中使用的方法
US9845106B2 (en) 2015-08-31 2017-12-19 Steering Solutions Ip Holding Corporation Overload protection for belt drive mechanism
FR3040573B1 (fr) 2015-08-31 2018-10-19 Kerlink Architecture de station de base modulable pour reseau de capteurs sans-fil.
US9731726B2 (en) 2015-09-02 2017-08-15 International Business Machines Corporation Redirecting self-driving vehicles to a product provider based on physiological states of occupants of the self-driving vehicles
CN107920709A (zh) 2015-09-03 2018-04-17 伊莱克斯公司 机器人清洁设备系统
JP6697702B2 (ja) * 2015-09-10 2020-05-27 パナソニックIpマネジメント株式会社 自動停止装置および自動停止方法
US9513632B1 (en) 2015-09-16 2016-12-06 International Business Machines Corporation Driving mode alerts from self-driving vehicles
US9566986B1 (en) 2015-09-25 2017-02-14 International Business Machines Corporation Controlling driving modes of self-driving vehicles
JP6567376B2 (ja) * 2015-09-25 2019-08-28 パナソニック株式会社 装置
EP3356899B1 (de) 2015-09-28 2021-12-29 Uatc, Llc Verfahren zum betrieb eines autonomen fahrzeugs mit unabhängiger hilfssteuereinheit
EP3153346B1 (de) * 2015-10-07 2019-09-25 Volvo Car Corporation Sitzsystem für autonome fahrzeuge
US9981656B2 (en) 2015-10-13 2018-05-29 Ford Global Technologies, Llc Vehicle parking assist system
US9481367B1 (en) 2015-10-14 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9824453B1 (en) 2015-10-14 2017-11-21 Allstate Insurance Company Three dimensional image scan for vehicle
US9834224B2 (en) 2015-10-15 2017-12-05 International Business Machines Corporation Controlling driving modes of self-driving vehicles
MX2018002976A (es) * 2015-10-20 2018-06-11 Ford Global Tech Llc Facilitacion de la circulacion entre carriles por parte de las motocicletas.
US10160472B2 (en) 2015-10-20 2018-12-25 Steering Solutions Ip Holding Corporation Steering column with stationary hub
US9751532B2 (en) 2015-10-27 2017-09-05 International Business Machines Corporation Controlling spacing of self-driving vehicles based on social network relationships
US9809155B2 (en) 2015-10-27 2017-11-07 Steering Solutions Ip Holding Corporation Retractable steering column assembly having lever, vehicle having retractable steering column assembly, and method
US9944291B2 (en) 2015-10-27 2018-04-17 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US10328933B2 (en) 2015-10-29 2019-06-25 Ford Global Technologies, Llc Cognitive reverse speed limiting
US10607293B2 (en) 2015-10-30 2020-03-31 International Business Machines Corporation Automated insurance toggling for self-driving vehicles
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US10248119B2 (en) 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US10334050B2 (en) * 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9630619B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US10176525B2 (en) 2015-11-09 2019-01-08 International Business Machines Corporation Dynamically adjusting insurance policy parameters for a self-driving vehicle
US9791861B2 (en) 2015-11-12 2017-10-17 International Business Machines Corporation Autonomously servicing self-driving vehicles
US10692126B2 (en) 2015-11-17 2020-06-23 Nio Usa, Inc. Network-based system for selling and servicing cars
TW201718297A (zh) * 2015-11-27 2017-06-01 鴻海精密工業股份有限公司 車輛駕駛模式切換系統和方法
DE102015223688A1 (de) * 2015-11-30 2017-06-01 Bayerische Motoren Werke Aktiengesellschaft Anordnung, Fortbewegungsmittel und Verfahren zur Übernahme einer Fahraufgabe durch einen Insassen eines in einem hochautomatisierten Fahrzustand befindlichen Fortbewegungsmittels
US10029725B2 (en) 2015-12-03 2018-07-24 Steering Solutions Ip Holding Corporation Torque feedback system for a steer-by-wire vehicle, vehicle having steering column, and method of providing feedback in vehicle
US10036642B2 (en) 2015-12-08 2018-07-31 Uber Technologies, Inc. Automated vehicle communications system
US9895945B2 (en) 2015-12-08 2018-02-20 Ford Global Technologies, Llc Trailer backup assist system with hitch assist
US10050760B2 (en) 2015-12-08 2018-08-14 Uber Technologies, Inc. Backend communications system for a fleet of autonomous vehicles
US10061326B2 (en) 2015-12-09 2018-08-28 International Business Machines Corporation Mishap amelioration based on second-order sensing by a self-driving vehicle
JP6690213B2 (ja) * 2015-12-09 2020-04-28 セイコーエプソン株式会社 ロボット、制御装置およびロボットシステム
DE102015225157A1 (de) * 2015-12-14 2017-06-14 Robert Bosch Gmbh Verfahren zum Übertragen, Empfangen und Verarbeiten von Datenwerten, sowie eine Übertragungs- und Empfangsvorrichtung
US10073965B2 (en) * 2015-12-15 2018-09-11 Nagravision S.A. Methods and systems for validating an autonomous system that includes a dynamic-code module and a static-code module
CN105425803B (zh) * 2015-12-16 2020-05-19 纳恩博(北京)科技有限公司 自主避障方法、装置和系统
US9855816B2 (en) * 2015-12-22 2018-01-02 Uber Technologies, Inc. Thermal reduction system for an automated vehicle
US9481393B1 (en) * 2015-12-22 2016-11-01 Uber Technologies, Inc. Integrated clutch steering system
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
DE112017000239B4 (de) * 2016-01-13 2022-08-11 Hitachi Astemo, Ltd. Lenkvorrichtung
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
US10324463B1 (en) 2016-01-22 2019-06-18 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation adjustment based upon route
US11441916B1 (en) 2016-01-22 2022-09-13 State Farm Mutual Automobile Insurance Company Autonomous vehicle trip routing
US11242051B1 (en) 2016-01-22 2022-02-08 State Farm Mutual Automobile Insurance Company Autonomous vehicle action communications
US10134278B1 (en) 2016-01-22 2018-11-20 State Farm Mutual Automobile Insurance Company Autonomous vehicle application
US10395332B1 (en) 2016-01-22 2019-08-27 State Farm Mutual Automobile Insurance Company Coordinated autonomous vehicle automatic area scanning
US10493936B1 (en) 2016-01-22 2019-12-03 State Farm Mutual Automobile Insurance Company Detecting and responding to autonomous vehicle collisions
US11719545B2 (en) 2016-01-22 2023-08-08 Hyundai Motor Company Autonomous vehicle component damage and salvage assessment
US9836973B2 (en) 2016-01-27 2017-12-05 International Business Machines Corporation Selectively controlling a self-driving vehicle's access to a roadway
US10328949B2 (en) * 2016-01-28 2019-06-25 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor blind spot indication for vehicles
US9896123B2 (en) * 2016-01-29 2018-02-20 Tk Holdings Inc. Systems and methods for detecting steering wheel contact
US10269075B2 (en) 2016-02-02 2019-04-23 Allstate Insurance Company Subjective route risk mapping and mitigation
US9645581B1 (en) * 2016-02-04 2017-05-09 Zerotech (Shenzhen) Intelligence Robot Co., Ltd Method and apparatus for navigating unmanned aerial vehicle
US10037031B2 (en) 2016-02-05 2018-07-31 Ford Global Technologies, Llc Vehicle operation states
US10787176B2 (en) * 2016-02-19 2020-09-29 A Truly Electric Car Company Plug-compatible interface between cars and their human and/or computer drivers
JP2017154542A (ja) * 2016-02-29 2017-09-07 株式会社デンソー 運転切替装置
US20170253237A1 (en) * 2016-03-02 2017-09-07 Magna Electronics Inc. Vehicle vision system with automatic parking function
US10322682B2 (en) 2016-03-03 2019-06-18 Steering Solutions Ip Holding Corporation Steering wheel with keyboard
US9616896B1 (en) 2016-03-15 2017-04-11 Uber Technologies, Inc. System for switching control of an autonomous vehicle
US9580080B1 (en) * 2016-03-15 2017-02-28 Uber Technologies, Inc. Drive-by-wire control system
JP7035300B2 (ja) 2016-03-15 2022-03-15 アクチエボラゲット エレクトロルックス ロボット清掃デバイス、ロボット清掃デバイスにおける、断崖検出を遂行する方法、コンピュータプログラム、およびコンピュータプログラム製品
US9488984B1 (en) * 2016-03-17 2016-11-08 Jeff Williams Method, device and system for navigation of an autonomous supply chain node vehicle in a storage center using virtual image-code tape
US20170277182A1 (en) * 2016-03-24 2017-09-28 Magna Electronics Inc. Control system for selective autonomous vehicle control
DE102016105876A1 (de) * 2016-03-31 2017-10-05 Connaught Electronics Ltd. Elektronisches Steuergerät für ein Fahrzeug mit separater Datenverbindung, Assistenzsystem, Fahrzeug sowie Verfahren
US11045059B2 (en) * 2016-03-31 2021-06-29 Miraikikai, Inc. Self-propelled robot
WO2017173553A1 (en) 2016-04-08 2017-10-12 A&K Robotics Inc. Autoscrubber convertible between manual and autonomous operation
US9896096B2 (en) 2016-04-11 2018-02-20 David E. Newman Systems and methods for hazard mitigation
US10496102B2 (en) 2016-04-11 2019-12-03 Steering Solutions Ip Holding Corporation Steering system for autonomous vehicle
US10255648B2 (en) 2016-04-14 2019-04-09 Eric John Wengreen Self-driving vehicle systems and methods
US9429947B1 (en) 2016-04-14 2016-08-30 Eric John Wengreen Self-driving vehicle systems and methods
DE102017108692A1 (de) 2016-04-25 2017-10-26 Steering Solutions Ip Holding Corporation Steuerung einer elektrischen Servolenkung unter Verwendung von Systemzustandsvorhersagen
US10152891B2 (en) 2016-05-02 2018-12-11 Cnh Industrial America Llc System for avoiding collisions between autonomous vehicles conducting agricultural operations
EP3454707B1 (de) 2016-05-11 2020-07-08 Aktiebolaget Electrolux Reinigungsroboter
JP6569596B2 (ja) * 2016-05-20 2019-09-04 トヨタ自動車株式会社 車両
US10685391B2 (en) 2016-05-24 2020-06-16 International Business Machines Corporation Directing movement of a self-driving vehicle based on sales activity
US10351161B2 (en) 2016-05-27 2019-07-16 Steering Solutions Ip Holding Corporation Steering column with manual retraction
DE102016209203A1 (de) * 2016-05-27 2017-11-30 Robert Bosch Gmbh Verfahren und Vorrichtung zum automatischen Anhalten eines Kraftfahrzeugs, das zumindest zeitweise automatisch auf einer Fahrroute geführt wird
US10372126B2 (en) * 2016-05-27 2019-08-06 Cnh Industrial America Llc Dynamic in-cabin autonomous vehicle control systems
US11580870B2 (en) 2016-05-27 2023-02-14 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methodologies for providing training on warnings in a vehicle
US10073460B2 (en) * 2016-06-10 2018-09-11 Trimble Inc. Providing auto-guidance of a mobile machine without requiring a graphical interface display
US10421476B2 (en) 2016-06-21 2019-09-24 Steering Solutions Ip Holding Corporation Self-locking telescope actuator of a steering column assembly
US11378954B2 (en) * 2016-06-28 2022-07-05 Faraday&Future Inc. Multi-processor SoC system
US10457313B2 (en) 2016-06-28 2019-10-29 Steering Solutions Ip Holding Corporation ADAS wheel locking device
JP6778872B2 (ja) * 2016-06-28 2020-11-04 パナソニックIpマネジメント株式会社 運転支援装置及び運転支援方法
US20180005052A1 (en) * 2016-07-01 2018-01-04 Uber Technologies, Inc. Static object detection for operating autonomous vehicle
US10509407B2 (en) * 2016-07-01 2019-12-17 Samsung Electronics Co., Ltd. Apparatus and method for a vehicle platform
US20180012196A1 (en) 2016-07-07 2018-01-11 NextEv USA, Inc. Vehicle maintenance manager
US10007264B2 (en) * 2016-07-14 2018-06-26 Baidu Usa Llc Autonomous vehicle human driver takeover mechanism using electrodes
EP3269680B1 (de) 2016-07-14 2020-09-30 Toyota Material Handling Manufacturing Sweden AB Flurförderer
EP3269678B1 (de) 2016-07-14 2019-03-06 Toyota Material Handling Manufacturing Sweden AB Flurförderer
EP3269679B1 (de) 2016-07-14 2019-09-11 Toyota Material Handling Manufacturing Sweden AB Flurförderer
US10363958B2 (en) 2016-07-26 2019-07-30 Steering Solutions Ip Holding Corporation Electric power steering mode determination and transitioning
US10232856B2 (en) 2016-07-28 2019-03-19 Ford Global Technologies, Llc Vehicle user-communication system and method
US10160477B2 (en) 2016-08-01 2018-12-25 Steering Solutions Ip Holding Corporation Electric power steering column assembly
US9928734B2 (en) 2016-08-02 2018-03-27 Nio Usa, Inc. Vehicle-to-pedestrian communication systems
RU2705480C1 (ru) 2016-08-08 2019-11-07 Ниссан Мотор Ко., Лтд. Способ управления и устройство управления транспортного средства с функцией автоматического вождения
US10059318B2 (en) 2016-08-11 2018-08-28 Goodrich Corporation Emergency brake system with dual input
JP6412070B2 (ja) * 2016-08-12 2018-10-24 トヨタ自動車株式会社 運転支援装置及び運転支援方法
US10543852B2 (en) * 2016-08-20 2020-01-28 Toyota Motor Engineering & Manufacturing North America, Inc. Environmental driver comfort feedback for autonomous vehicle
US20190212732A1 (en) * 2016-08-22 2019-07-11 Sony Corporation Vehicle and control method
US10189496B2 (en) 2016-08-22 2019-01-29 Steering Solutions Ip Holding Corporation Steering assembly having a telescope drive lock assembly
AU2017320593B2 (en) 2016-08-29 2021-10-28 Crinklaw Farm Services Robotic agricultural system and method
CN107701712B (zh) * 2016-08-30 2021-10-01 宁波高发汽车控制系统股份有限公司 一种无人驾驶汽车换挡器执行机构控制系统
US10663965B2 (en) * 2016-09-01 2020-05-26 Ford Global Technologies, Llc Permissions for partially autonomous vehicle operation
US10884426B2 (en) * 2016-09-06 2021-01-05 Advanced Intelligent Systems Inc. Mobile work station for transporting a plurality of articles
US10384708B2 (en) 2016-09-12 2019-08-20 Steering Solutions Ip Holding Corporation Intermediate shaft assembly for steer-by-wire steering system
US10160473B2 (en) 2016-09-13 2018-12-25 Steering Solutions Ip Holding Corporation Steering column decoupling system
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
US10093322B2 (en) 2016-09-15 2018-10-09 International Business Machines Corporation Automatically providing explanations for actions taken by a self-driving vehicle
CN109789779B (zh) * 2016-09-16 2022-03-04 富士胶片株式会社 投影型显示装置及其控制方法
US10643256B2 (en) 2016-09-16 2020-05-05 International Business Machines Corporation Configuring a self-driving vehicle for charitable donations pickup and delivery
US10346152B2 (en) 2016-09-20 2019-07-09 At&T Intellectual Property I, L.P. Facilitating use of a universal integrated circuit card (UICC) for secure device updates
US10144383B2 (en) 2016-09-29 2018-12-04 Steering Solutions Ip Holding Corporation Steering wheel with video screen and airbag
EP3519937A4 (de) 2016-09-30 2020-04-29 Staples, Inc. Hybrides modulares speicherabrufsystem
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
US10399591B2 (en) 2016-10-03 2019-09-03 Steering Solutions Ip Holding Corporation Steering compensation with grip sensing
US11155267B2 (en) 2016-10-11 2021-10-26 Samsung Electronics Co., Ltd. Mobile sensor platform
US10239552B2 (en) 2016-10-14 2019-03-26 Steering Solutions Ip Holding Corporation Rotation control assembly for a steering column
US9829883B1 (en) 2016-10-17 2017-11-28 Ford Global Technologies, Llc Trailer backup assist system having remote control and user sight management
US10481602B2 (en) * 2016-10-17 2019-11-19 Steering Solutions Ip Holding Corporation Sensor fusion for autonomous driving transition control
CN107972660A (zh) * 2016-10-19 2018-05-01 法乐第(北京)网络科技有限公司 一种自动驾驶系统
CN109906608B (zh) 2016-11-01 2021-03-12 松下电器(美国)知识产权公司 显示方法以及显示装置
US9823657B1 (en) 2016-11-02 2017-11-21 Smartdrive Systems, Inc. Measuring operator readiness and readiness testing triggering in an autonomous vehicle
US9663118B1 (en) * 2016-11-02 2017-05-30 Smartdrive Systems, Inc. Autonomous vehicle operator performance tracking
US10528055B2 (en) * 2016-11-03 2020-01-07 Ford Global Technologies, Llc Road sign recognition
DE102016221690A1 (de) * 2016-11-04 2018-05-09 Audi Ag Verfahren zum Übertragen von Datenpaketen zwischen einem Ethernet und einem Bussystem in einem Kraftfahrzeug sowie Gatewayvorrichtung und Kraftfahrzeug
US11024160B2 (en) 2016-11-07 2021-06-01 Nio Usa, Inc. Feedback performance control and tracking
US10694357B2 (en) 2016-11-11 2020-06-23 Nio Usa, Inc. Using vehicle sensor data to monitor pedestrian health
US10410064B2 (en) 2016-11-11 2019-09-10 Nio Usa, Inc. System for tracking and identifying vehicles and pedestrians
US10708547B2 (en) 2016-11-11 2020-07-07 Nio Usa, Inc. Using vehicle sensor data to monitor environmental and geologic conditions
US10310605B2 (en) 2016-11-15 2019-06-04 Steering Solutions Ip Holding Corporation Haptic feedback for steering system controls
US10421475B2 (en) 2016-11-15 2019-09-24 Steering Solutions Ip Holding Corporation Electric actuator mechanism for retractable steering column assembly with manual override
US10515390B2 (en) 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
US9862403B1 (en) 2016-11-29 2018-01-09 Steering Solutions Ip Holding Corporation Manually retractable steering column assembly for autonomous vehicle
US10351160B2 (en) 2016-11-30 2019-07-16 Steering Solutions Ip Holding Corporation Steering column assembly having a sensor assembly
US10249104B2 (en) 2016-12-06 2019-04-02 Nio Usa, Inc. Lease observation and event recording
US10780915B2 (en) 2016-12-07 2020-09-22 Steering Solutions Ip Holding Corporation Vehicle steering system having a user experience based automated driving to manual driving transition system and method
US10395441B2 (en) 2016-12-14 2019-08-27 Uber Technologies, Inc. Vehicle management system
US10671063B2 (en) 2016-12-14 2020-06-02 Uatc, Llc Vehicle control device
US9811086B1 (en) 2016-12-14 2017-11-07 Uber Technologies, Inc. Vehicle management system
DE102016225516B4 (de) * 2016-12-20 2019-11-14 Bayerische Motoren Werke Aktiengesellschaft Messsystem und Messverfahren für ein Fahrzeug
CN106656712A (zh) * 2016-12-30 2017-05-10 深圳市优必选科技有限公司 用于总线的异常处理方法、用于机器人的控制器
US10259452B2 (en) 2017-01-04 2019-04-16 International Business Machines Corporation Self-driving vehicle collision management system
US10529147B2 (en) 2017-01-05 2020-01-07 International Business Machines Corporation Self-driving vehicle road safety flare deploying system
US10363893B2 (en) 2017-01-05 2019-07-30 International Business Machines Corporation Self-driving vehicle contextual lock control system
CN106878127B (zh) * 2017-01-09 2019-12-31 浙江大学 带有新型视频监控的水下机器人有线操控系统
US10074223B2 (en) 2017-01-13 2018-09-11 Nio Usa, Inc. Secured vehicle for user use only
US9984572B1 (en) 2017-01-16 2018-05-29 Nio Usa, Inc. Method and system for sharing parking space availability among autonomous vehicles
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US10031521B1 (en) 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US10464530B2 (en) 2017-01-17 2019-11-05 Nio Usa, Inc. Voice biometric pre-purchase enrollment for autonomous vehicles
DE102017200655A1 (de) 2017-01-17 2018-07-19 Audi Ag Verfahren zum Bereitstellen von aktuatorbasierten Fahrzeugfunktionen in einem Kraftfahrzeug sowie Kraftfahrzeug-Recheneinrichtung und Kraftfahrzeug
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
CN110072501B (zh) * 2017-01-22 2021-07-09 四川金瑞麒智能科学技术有限公司 一种智能轮椅的机械传动控制方法与系统
US10838065B2 (en) 2017-01-26 2020-11-17 The Regents Of The University Of Michigan Localization using 2D maps which capture vertical structures in 3D point data
JP6773574B2 (ja) * 2017-01-30 2020-10-21 ヤンマーパワーテクノロジー株式会社 作業車両制御装置
DE102017000841A1 (de) * 2017-01-31 2018-08-02 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Starten eines Kraftfahrzeugantriebs
JP6617726B2 (ja) * 2017-02-01 2019-12-11 トヨタ自動車株式会社 運転制御装置
US10897469B2 (en) 2017-02-02 2021-01-19 Nio Usa, Inc. System and method for firewalls between vehicle networks
US10259496B2 (en) 2017-02-07 2019-04-16 Ford Global Technologies, Llc Steering-wheel feedback mechanism
US10538268B2 (en) * 2017-02-07 2020-01-21 Ford Global Technologies, Llc Steering-wheel control mechanism for autonomous vehicle
EP3360757B1 (de) 2017-02-10 2019-10-02 Volvo Car Corporation Lenkdrehmomentverwalter für ein verbessertes fahrerassistenzsystem eines strassenfahrzeugs
US10370022B2 (en) 2017-02-13 2019-08-06 Steering Solutions Ip Holding Corporation Steering column assembly for autonomous vehicle
US10385930B2 (en) 2017-02-21 2019-08-20 Steering Solutions Ip Holding Corporation Ball coupling assembly for steering column assembly
US10220857B2 (en) 2017-02-23 2019-03-05 Uber Technologies, Inc. Vehicle control system
IL250762B (en) * 2017-02-23 2020-09-30 Appelman Dina Method and system for unmanned vehicle navigation
CA3055702A1 (en) * 2017-03-07 2018-09-13 Nissan Motor Co., Ltd. Traveling assistance method and driving control device
US10152060B2 (en) 2017-03-08 2018-12-11 International Business Machines Corporation Protecting contents of a smart vault being transported by a self-driving vehicle
JP6690581B2 (ja) * 2017-03-09 2020-04-28 オムロン株式会社 運転モード切替制御装置、方法およびプログラム
DE102018105406B4 (de) * 2017-03-10 2022-11-03 Steering Solutions Ip Holding Corporation System und verfahren zur lenkungssteuerung für ein autonomes fahrzeug
EP3375696B1 (de) 2017-03-17 2019-11-20 Volvo Car Corporation Lenkdrehmomentverwalter für ein verbessertes fahrerassistenzsystem eines strassenfahrzeugs
US11087200B2 (en) 2017-03-17 2021-08-10 The Regents Of The University Of Michigan Method and apparatus for constructing informative outcomes to guide multi-policy decision making
EP3378733B1 (de) 2017-03-20 2020-01-15 Volvo Car Corporation Vorrichtung und verfahren für situationsabhängige lenkradwinkelsteuerung (had- oder adas)
US10150432B2 (en) 2017-03-20 2018-12-11 Ford Global Technologies, Llc Autonomous vehicle conversion
EP3378731B1 (de) * 2017-03-20 2020-01-15 Volvo Car Corporation Vorrichtung und verfahren für fahreraktivitätsabhängiges lenkradwinkelsteuergerät (adas)
US10661764B1 (en) 2017-03-28 2020-05-26 Apple Inc. Braking system control state transitions
US10168697B2 (en) 2017-03-31 2019-01-01 At&T Intellectual Property I, L.P. Assistance for an autonomous vehicle using crowd-sourced responses
CN116392096A (zh) * 2017-04-03 2023-07-07 提爱思科技股份有限公司 生物传感器的配置构造
CN106990789B (zh) * 2017-04-11 2021-08-31 北京机械设备研究所 一种特种环境侦查系统及特种环境的快速侦察方法
US10838422B2 (en) * 2017-04-13 2020-11-17 Panasonic Intellectual Property Corporation Of America Information processing method and information processing apparatus
US10449927B2 (en) 2017-04-13 2019-10-22 Steering Solutions Ip Holding Corporation Steering system having anti-theft capabilities
US10317907B2 (en) * 2017-04-28 2019-06-11 GM Global Technology Operations LLC Systems and methods for obstacle avoidance and path planning in autonomous vehicles
US10086809B1 (en) * 2017-05-02 2018-10-02 Delphi Technologies, Inc. Automatic braking system
BE1024929B1 (nl) 2017-05-09 2018-08-13 Cnh Industrial Belgium Nv Verbeteringen in of met betrekking tot voertuig/aanhangwagen-combinaties
US10692365B2 (en) 2017-06-20 2020-06-23 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
US20220375336A1 (en) 2017-05-17 2022-11-24 Cavh Llc Autonomous Vehicle (AV) Control System with Roadside Unit (RSU) Network
GB201707973D0 (en) * 2017-05-18 2017-07-05 Jaguar Land Rover Ltd A vehicle control system, method and computer program for a vehicle control multilayer architecture
KR20220025250A (ko) 2017-06-02 2022-03-03 에이비 엘렉트로룩스 로봇 청소 장치 전방의 표면의 레벨차를 검출하는 방법
EP3639167A4 (de) * 2017-06-16 2021-02-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur auswahl einer karte für ein bewegtes objekt, system und fahrzeug/roboter
CN109116861A (zh) * 2017-06-23 2019-01-01 无锡飞天侠科技有限公司 一种无人机地面控制系统
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
US10343698B2 (en) 2017-06-27 2019-07-09 Uber Technologies, Inc. Disabling onboard input devices in an autonomous vehicle
EP3421308B1 (de) * 2017-06-29 2021-08-11 Volvo Car Corporation Verfahren und fahrzeug zur aktivierung eines autonomen bremsmanövers
KR102064220B1 (ko) * 2017-07-06 2020-01-09 엘지전자 주식회사 차량용 주행 시스템 및 차량
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10300789B2 (en) * 2017-07-25 2019-05-28 Denso International America, Inc. Vehicle heads-up display
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
US10585429B2 (en) * 2017-08-01 2020-03-10 Dynamic Research, Inc. Robotic steering controller for optimal free response evaluation
EP3441837B1 (de) * 2017-08-07 2023-11-15 Nokia Solutions and Networks Oy Unbemannte fahrzeuge
WO2019035997A1 (en) 2017-08-17 2019-02-21 Sri International ADVANCED CONTROL SYSTEM HAVING MULTIPLE CONTROL PARADIGMS
US20190066548A1 (en) * 2017-08-22 2019-02-28 Ford Global Technologies, Llc Vehicle emblem assembly
US11112793B2 (en) 2017-08-28 2021-09-07 Motional Ad Llc Mixed-mode driving of a vehicle having autonomous driving capabilities
US20190064805A1 (en) * 2017-08-28 2019-02-28 nuTonomy Inc. Mixed-mode driving of a vehicle having autonomous driving capabilities
US11460842B2 (en) * 2017-08-28 2022-10-04 Motional Ad Llc Mixed-mode driving of a vehicle having autonomous driving capabilities
EP3652721A1 (de) 2017-09-04 2020-05-20 NNG Software Developing and Commercial LLC Verfahren und vorrichtung zum sammeln und verwenden von sensordaten von einem fahrzeug
DE102017215592A1 (de) * 2017-09-05 2019-03-07 Volkswagen Aktiengesellschaft Fahrassistenzvorrichtung eingerichtet zur teilautonomen und vollautonomen Führung eines Kraftfahrzeugs, Verfahren und Kraftfahrzeug
US11430331B2 (en) * 2017-09-08 2022-08-30 Uatc, Llc Power and thermal management systems and methods for autonomous vehicles
CN109509210B (zh) * 2017-09-15 2020-11-24 百度在线网络技术(北京)有限公司 障碍物跟踪方法和装置
DE102017216457A1 (de) * 2017-09-18 2019-03-21 Robert Bosch Gmbh Verfahren zur Bestimmung einer maximalen Geschwindigkeit eines Fahrzeugs während eines Einparkmanövers
JP6989210B2 (ja) 2017-09-26 2022-01-05 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの移動の制御
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
KR102106875B1 (ko) * 2017-10-24 2020-05-08 엔에이치엔 주식회사 차량학습에 기반한 자율주행 중 사고 회피 시스템 및 방법
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10717412B2 (en) 2017-11-13 2020-07-21 Nio Usa, Inc. System and method for controlling a vehicle using secondary access methods
DE102017220559A1 (de) * 2017-11-17 2019-05-23 Robert Bosch Gmbh Konzept zum Laden eines elektrischen Energiespeichers eines Kraftfahrzeugs
EP3486140B1 (de) 2017-11-20 2021-01-20 Steering Solutions IP Holding Corporation Sichtbasiertes aktives lenksystem
US11347218B2 (en) * 2017-11-21 2022-05-31 Shawn Wang Portable universal autonomous driving system
KR102037324B1 (ko) * 2017-11-30 2019-10-28 엘지전자 주식회사 자율주행 차량 및 그 제어 방법
US10562526B2 (en) 2017-12-11 2020-02-18 Ford Global Technologies, Llc Vehicle component operation
US10647329B2 (en) 2017-12-12 2020-05-12 Uatc, Llc Disengaging autonomous control of vehicle
EP3729766A1 (de) 2017-12-24 2020-10-28 Arilou Information Security Technologies Ltd. System und verfahren zur tunnel-basierten erkennung von schadprogrammen
US10967875B2 (en) 2018-01-05 2021-04-06 Honda Motor Co., Ltd. Control system for autonomous all-terrain vehicle (ATV)
US11073838B2 (en) 2018-01-06 2021-07-27 Drivent Llc Self-driving vehicle systems and methods
US10299216B1 (en) 2018-01-06 2019-05-21 Eric John Wengreen Self-driving vehicle actions in response to a low battery
US10274950B1 (en) 2018-01-06 2019-04-30 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10303181B1 (en) 2018-11-29 2019-05-28 Eric John Wengreen Self-driving vehicle systems and methods
US10890909B2 (en) 2018-01-09 2021-01-12 International Business Machines Corporation Automobile driving mode determination
CN108182817A (zh) * 2018-01-11 2018-06-19 北京图森未来科技有限公司 自动驾驶辅助系统、路侧端辅助系统和车载端辅助系统
DE102018200388A1 (de) * 2018-01-11 2019-07-11 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrzeugs mit einem in eine Querdynamik des Fahrzeugs eingreifenden Fahrerassistenzsystem
US11022971B2 (en) * 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
US10962973B2 (en) 2018-01-30 2021-03-30 Uatc, Llc Autonomous vehicle safe stop
WO2019156956A2 (en) 2018-02-06 2019-08-15 Cavh Llc Intelligent road infrastructure system (iris): systems and methods
JP7063652B2 (ja) * 2018-02-19 2022-05-09 株式会社デンソーテン 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法
IL276854B2 (en) * 2018-03-02 2024-01-01 St Eng Land Systems Ltd Hybrid electronic drive-by-wire system for operating a crawler vehicle
JP2019155957A (ja) * 2018-03-07 2019-09-19 本田技研工業株式会社 車両用制御装置及び車両
WO2019173611A1 (en) * 2018-03-07 2019-09-12 Mile Auto, Inc. Monitoring and tracking mode of operation of vehicles to determine services
US11027419B2 (en) 2018-03-14 2021-06-08 Fedex Corporate Services, Inc. Modular auxiliary power module for a modular autonomous bot apparatus that transports an item being shipped
US10875566B2 (en) 2018-03-22 2020-12-29 Steering Solutions Ip Holding Corporation Stow release assembly for a manually adjustable steering column assembly
US10676085B2 (en) 2018-04-11 2020-06-09 Aurora Innovation, Inc. Training machine learning model based on training instances with: training instance input based on autonomous vehicle sensor data, and training instance output based on additional vehicle sensor data
US11550061B2 (en) 2018-04-11 2023-01-10 Aurora Operations, Inc. Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data
US11687092B2 (en) 2018-04-23 2023-06-27 Sharkninja Operating Llc Techniques for bounding cleaning operations of a robotic surface cleaning device within a region of interest
WO2019204931A1 (en) * 2018-04-25 2019-10-31 Flir Unmanned Aerial Systems Ulc Systems and methods for communicating with payload on an unmanned vehicle
US10908609B2 (en) * 2018-04-30 2021-02-02 Toyota Research Institute, Inc. Apparatus and method for autonomous driving
US10899006B2 (en) * 2018-05-01 2021-01-26 X Development Llc Robot navigation using 2D and 3D path planning
AU2019266266A1 (en) 2018-05-09 2020-11-12 Cavh Llc Systems and methods for driving intelligence allocation between vehicles and highways
US11641790B2 (en) 2018-05-09 2023-05-09 Deere & Company Method of planning a path for a vehicle having a work tool and a vehicle path planning system
US10369966B1 (en) 2018-05-23 2019-08-06 Nio Usa, Inc. Controlling access to a vehicle using wireless access devices
CN108480950B (zh) * 2018-05-24 2023-07-25 刘玉华 一种用于自动更换部件的设备
JP7059806B2 (ja) * 2018-05-29 2022-04-26 株式会社オートネットワーク技術研究所 車載通信システム、車載中継装置、通信プログラム及び通信方法
US11104334B2 (en) 2018-05-31 2021-08-31 Tusimple, Inc. System and method for proximate vehicle intention prediction for autonomous vehicles
US20190367019A1 (en) * 2018-05-31 2019-12-05 TuSimple System and method for proximate vehicle intention prediction for autonomous vehicles
US11842642B2 (en) 2018-06-20 2023-12-12 Cavh Llc Connected automated vehicle highway systems and methods related to heavy vehicles
WO2020012241A1 (en) 2018-07-08 2020-01-16 Nng Software Developing And Commercial Llc. A method and apparatus for optimal navigation to multiple locations
WO2020014227A1 (en) * 2018-07-10 2020-01-16 Cavh Llc Route-specific services for connected automated vehicle highway systems
US11373122B2 (en) 2018-07-10 2022-06-28 Cavh Llc Fixed-route service system for CAVH systems
EP3824404A4 (de) 2018-07-20 2022-04-27 May Mobility, Inc. Multiperspektivisches system und verfahren zur verhaltensrichtlinienauswahl durch einen autonomem agenten
US10614709B2 (en) 2018-07-24 2020-04-07 May Mobility, Inc. Systems and methods for implementing multimodal safety operations with an autonomous agent
US10466057B1 (en) 2018-07-30 2019-11-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US10974756B2 (en) 2018-07-31 2021-04-13 Steering Solutions Ip Holding Corporation Clutch device latching system and method
KR20210040082A (ko) 2018-08-06 2021-04-12 클라크 이큅먼트 컴파니 강화 로더 제어
US11738643B2 (en) 2019-02-27 2023-08-29 Clark Equipment Company Display integrated into door
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
US10683067B2 (en) * 2018-08-10 2020-06-16 Buffalo Automation Group Inc. Sensor system for maritime vessels
US10765026B2 (en) 2018-08-17 2020-09-01 Microsoft Technology Licensing, Llc Automated data center
CN112534780B (zh) * 2018-08-23 2024-02-23 精密种植有限责任公司 用于机器和机具之间的通信的可扩展网络架构
EP3617828A1 (de) 2018-08-28 2020-03-04 Nilfisk A/S Autonomes oberflächenbehandlungsfahrzeug mit schnellwandmodus
US10858033B2 (en) * 2018-08-29 2020-12-08 Steering Solutions Ip Holding Corporation Driver intervention detection during steering column assembly power stowing and unstowing
EP3799618B1 (de) 2018-08-30 2022-10-26 Elta Systems Ltd. Verfahren zum navigieren eines fahrzeugs und system dafür
CN109186463B (zh) * 2018-09-04 2021-12-07 浙江梧斯源通信科技股份有限公司 应用于可移动机器人的防跌落方法
US11487300B2 (en) * 2018-09-13 2022-11-01 Toyota Motor Engineering & Manufacturing North America, Inc. Home improvement store autonomous workhorse
US10289922B1 (en) 2018-09-18 2019-05-14 Eric John Wengreen System for managing lost, mislaid, or abandoned property in a self-driving vehicle
US10471804B1 (en) 2018-09-18 2019-11-12 Drivent Llc Self-driving vehicle systems and methods
US10282625B1 (en) 2018-10-01 2019-05-07 Eric John Wengreen Self-driving vehicle systems and methods
US10223844B1 (en) 2018-09-18 2019-03-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US10493952B1 (en) 2019-03-21 2019-12-03 Drivent Llc Self-driving vehicle systems and methods
US10479319B1 (en) 2019-03-21 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
CN109035740A (zh) * 2018-09-27 2018-12-18 上海节卡机器人科技有限公司 机器人的控制方法、装置和远程控制系统
US10900792B2 (en) 2018-10-22 2021-01-26 Drivent Llc Self-driving vehicle systems and methods
US10832569B2 (en) 2019-04-02 2020-11-10 Drivent Llc Vehicle detection systems
US11221621B2 (en) 2019-03-21 2022-01-11 Drivent Llc Self-driving vehicle systems and methods
US11644833B2 (en) 2018-10-01 2023-05-09 Drivent Llc Self-driving vehicle systems and methods
US10794714B2 (en) 2018-10-01 2020-10-06 Drivent Llc Self-driving vehicle systems and methods
KR102574289B1 (ko) * 2018-10-08 2023-09-05 주식회사 에이치엘클레무브 후진 주행 제어 장치 및 그 후진 주행 제어 방법
US10240938B1 (en) 2018-10-22 2019-03-26 Drivent Technologies Inc. Self-driving vehicle systems and methods
WO2020086557A1 (en) * 2018-10-24 2020-04-30 Discovery Robotics Apparatus and method for operations of a robotic platform
JP6998287B2 (ja) * 2018-10-29 2022-02-10 ヤンマーパワーテクノロジー株式会社 走行車両
US10481606B1 (en) 2018-11-01 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US10286908B1 (en) 2018-11-01 2019-05-14 Eric John Wengreen Self-driving vehicle systems and methods
US11086319B2 (en) 2018-11-02 2021-08-10 Aurora Operations, Inc. Generating testing instances for autonomous vehicles
US11209821B2 (en) 2018-11-02 2021-12-28 Aurora Operations, Inc. Labeling autonomous vehicle data
US11163312B2 (en) 2018-11-02 2021-11-02 Aurora Operations, Inc. Removable automotive LIDAR data collection POD
US11829143B2 (en) 2018-11-02 2023-11-28 Aurora Operations, Inc. Labeling autonomous vehicle data
US11403492B2 (en) 2018-11-02 2022-08-02 Aurora Operations, Inc. Generating labeled training instances for autonomous vehicles
US11256263B2 (en) 2018-11-02 2022-02-22 Aurora Operations, Inc. Generating targeted training instances for autonomous vehicles
US11613041B1 (en) 2018-11-08 2023-03-28 Scepaniak IP Holdings, LLC Coping nailer
US11214967B1 (en) 2018-11-08 2022-01-04 Scepaniak IP Holdings, LLC Roof rock spreader
US11465279B2 (en) * 2018-11-29 2022-10-11 X Development Llc Robot base position planning
US10942516B2 (en) 2018-12-12 2021-03-09 Valeo Schalter Und Sensoren Gmbh Vehicle path updates via remote vehicle control
US10908604B2 (en) * 2018-12-14 2021-02-02 Valeo Schalter Und Sensoren Gmbh Remote operation of vehicles in close-quarter environments
US11543531B2 (en) 2018-12-19 2023-01-03 Fca Us Llc Semi-automatic LIDAR annotation system for autonomous driving
DE102018222556A1 (de) * 2018-12-20 2020-06-25 Robert Bosch Gmbh Notstop-Verfahren und Vorrichtung für ein zumindest teilweise automatisiert fahrendes Fahrzeug
US10816635B1 (en) 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Autonomous vehicle localization system
US10820349B2 (en) 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Wireless message collision avoidance with high throughput
US10525881B1 (en) * 2018-12-21 2020-01-07 Robert Bosch Gmbh Wheel orientation warning system
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
US11323548B2 (en) 2019-01-20 2022-05-03 Arilou Information Security Technologies Ltd. System and method for data compression based on data position in frames structure
CN111464978A (zh) * 2019-01-22 2020-07-28 岳秀兰 主次无线设备通过物联网连接建立的车辆远程驾驶体系
US10744976B1 (en) 2019-02-04 2020-08-18 Drivent Llc Self-driving vehicle systems and methods
US10377342B1 (en) 2019-02-04 2019-08-13 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10969470B2 (en) 2019-02-15 2021-04-06 May Mobility, Inc. Systems and methods for intelligently calibrating infrastructure devices using onboard sensors of an autonomous agent
US11285988B1 (en) 2019-02-18 2022-03-29 Apple Inc. Passenger vehicle and retractable driver input devices thereof
DE102019202182A1 (de) * 2019-02-19 2020-08-20 Zf Friedrichshafen Ag Verfahren zum Steuern eines Nutzfahrzeugs
WO2020170237A1 (en) 2019-02-19 2020-08-27 Edgy Bees Ltd. Estimating real-time delay of a video data stream
US11338848B2 (en) * 2019-02-20 2022-05-24 Caterpillar Inc. Alignment of steering controller angle and machine steering angle for transitioning between manual and autonomous operating modes
CN109814573B (zh) * 2019-02-21 2022-08-02 百度在线网络技术(北京)有限公司 无人驾驶控制方法、装置、设备及计算机可读存储介质
US11367361B2 (en) * 2019-02-22 2022-06-21 Kyndryl, Inc. Emulating unmanned aerial vehicle (UAV)
CL2019000600A1 (es) * 2019-03-11 2019-05-17 Univ Chile Un método de asistencia para la tele-operación de vehículos en túneles, por ejemplo, túneles mineros
US10809734B2 (en) 2019-03-13 2020-10-20 Mobile Industrial Robots A/S Route planning in an autonomous device
WO2020189831A1 (ko) * 2019-03-21 2020-09-24 엘지전자 주식회사 자율주행 차량의 모니터링 및 제어 방법
JP7287048B2 (ja) * 2019-03-27 2023-06-06 セイコーエプソン株式会社 ロボット
JP7123845B2 (ja) * 2019-03-29 2022-08-23 本田技研工業株式会社 車両制御システム
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
WO2020214787A1 (en) * 2019-04-16 2020-10-22 University Of Louisville Research Foundation, Inc. Adaptive robotic nursing assistant
KR20200128242A (ko) * 2019-04-24 2020-11-12 현대자동차주식회사 차량의 주행 제어 장치 및 방법
US10807527B1 (en) 2019-05-01 2020-10-20 Smartdrive Systems, Inc. Systems and methods for verifying whether vehicle operators are paying attention
US20200356090A1 (en) * 2019-05-09 2020-11-12 Gm Cruise Holdings Llc Client control for an autonomous vehicle ridesharing service
US11861957B2 (en) 2019-05-09 2024-01-02 Argo AI, LLC Time master and sensor data collection for robotic system
US11518349B2 (en) * 2019-06-06 2022-12-06 Caterpillar Inc. Automatic break application for emergency stop
DE102019208546A1 (de) * 2019-06-12 2020-12-17 Continental Reifen Deutschland Gmbh Reifenaufbauanlage und Verfahren zum Aufbauen eines Reifens
US10820182B1 (en) 2019-06-13 2020-10-27 David E. Newman Wireless protocols for emergency message transmission
US10713950B1 (en) 2019-06-13 2020-07-14 Autonomous Roadway Intelligence, Llc Rapid wireless communication for vehicle collision mitigation
US10939471B2 (en) 2019-06-13 2021-03-02 David E. Newman Managed transmission of wireless DAT messages
US11711238B2 (en) 2019-06-21 2023-07-25 Stevyn Pompelio Methods for operator control unit and payload communication
US11358593B2 (en) 2019-07-09 2022-06-14 King Fahd University Of Petroleum And Minerals Dual direction accident prevention and assistive braking system
US11087477B2 (en) * 2019-07-29 2021-08-10 Honda Motor Co., Ltd. Trajectory prediction
JP7344044B2 (ja) * 2019-08-13 2023-09-13 株式会社Subaru 車両用運転支援装置
JP7389582B2 (ja) * 2019-08-21 2023-11-30 株式会社Subaru 車両用運転支援装置
US11422570B2 (en) 2019-08-27 2022-08-23 Ford Global Technologies, Llc Systems and methods for managing a transportation device fleet using teleoperation commands
US11932306B2 (en) 2019-09-14 2024-03-19 Honda Motor Co., Ltd. Trajectory planner
US11927674B2 (en) * 2019-09-16 2024-03-12 Honda Motor Co., Ltd. System and method for providing a comprehensive trajectory planner for a person-following vehicle
KR20220068239A (ko) * 2019-09-20 2022-05-25 소나투스, 인코포레이티드 추가 차량 통신 제어를 위한 시스템, 방법, 및 장치
US11538287B2 (en) * 2019-09-20 2022-12-27 Sonatus, Inc. System, method, and apparatus for managing vehicle data collection
JP7305274B2 (ja) * 2019-09-25 2023-07-10 日立建機株式会社 建設機械
JP7173944B2 (ja) * 2019-10-08 2022-11-16 株式会社クボタ 電動作業車
DE102019216156A1 (de) * 2019-10-21 2021-04-22 Zf Active Safety Gmbh Steuerungssystem und Steuerungsverfahren
US20210122385A1 (en) * 2019-10-28 2021-04-29 Pony Ai Inc. Systems and methods for emergency bus protection in an autonomous vehicle
KR20220097381A (ko) 2019-11-12 2022-07-07 클라크 이큅먼트 컴파니 도어에 통합된 디스플레이
KR20190134554A (ko) 2019-11-15 2019-12-04 엘지전자 주식회사 동적 장애물을 식별하는 방법 및 이를 구현한 로봇
US11385058B2 (en) * 2019-11-26 2022-07-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems, vehicles, and methods for detecting and mapping off-road obstacles
US11318865B2 (en) * 2019-12-13 2022-05-03 Uatc, Llc Autonomous vehicle having a configurable passenger seat
JP7272262B2 (ja) * 2019-12-25 2023-05-12 トヨタ自動車株式会社 車両の代替制動装置
IT202000000025A1 (it) * 2020-01-02 2021-07-02 Alba Robot Srl Dispositivo per la movimentazione autonoma di apparati a rotelle e relativo metodo di installazione
US20210243941A1 (en) * 2020-02-07 2021-08-12 Ag Leader Technology Planter Obstruction Monitoring And Associated Devices And Methods
US11126165B2 (en) 2020-02-11 2021-09-21 Uatc, Llc Vehicle computing system cooling systems
JP6937856B2 (ja) * 2020-02-13 2021-09-22 本田技研工業株式会社 運転支援装置および車両
US11772583B2 (en) 2020-03-06 2023-10-03 Sonatus, Inc. System, method, and apparatus for managing vehicle automation
US11225228B2 (en) * 2020-03-11 2022-01-18 Baidu Usa Llc Method for enhancing in-path obstacle detection with safety redundancy autonomous system
US11592299B2 (en) 2020-03-19 2023-02-28 Mobile Industrial Robots A/S Using static scores to control vehicle operations
US11538343B2 (en) 2020-03-23 2022-12-27 Toyota Motor North America, Inc. Automatic warning of atypical audio indicating a transport event
US11443624B2 (en) 2020-03-23 2022-09-13 Toyota Motor North America, Inc. Automatic warning of navigating towards a dangerous area or event
US11720398B2 (en) 2020-03-31 2023-08-08 Ford Global Technologies, Llc Harvesting vehicle hardware accelerators and GPU computing capabilities when idle
US11685049B2 (en) 2020-04-22 2023-06-27 Boston Dynamics, Inc. Robot localization using variance sampling
BR112022023157A2 (pt) * 2020-05-14 2023-04-04 Raven Ind Inc Sistemas de monitoramento de obstáculos e métodos para os mesmos
US11608066B1 (en) 2020-05-19 2023-03-21 Waymo Llc Responding to input on a brake pedal of a brake by wire system for an autonomous vehicle
US11352023B2 (en) 2020-07-01 2022-06-07 May Mobility, Inc. Method and system for dynamically curating autonomous vehicle policies
WO2022015764A1 (en) * 2020-07-13 2022-01-20 Brain Corporation Systems and methods for engaging brakes on a robotic device
CN111959269A (zh) * 2020-07-20 2020-11-20 易显智能科技有限责任公司 一种油门控制器、车辆安全防护系统和方法以及车辆
WO2022061560A1 (zh) * 2020-09-23 2022-03-31 上海西邦电气有限公司 一种应用于激光清障仪的设备安全防护方法
US20220089167A1 (en) * 2020-09-24 2022-03-24 Nuro, Inc. Methods and Apparatus for Providing State Estimation in Autonomous Vehicles
US11206092B1 (en) 2020-11-13 2021-12-21 Ultralogic 5G, Llc Artificial intelligence for predicting 5G network performance
US20220174866A1 (en) * 2020-12-04 2022-06-09 Scythe Robotics, Inc. Autonomous lawn mower
US11229063B1 (en) 2020-12-04 2022-01-18 Ultralogic 5G, Llc Early disclosure of destination address for fast information transfer in 5G
CN114620019B (zh) * 2020-12-08 2023-08-15 山东新松工业软件研究院股份有限公司 一种四驱开发平台及其制动系统和制动方法
CN112666858B (zh) * 2020-12-11 2024-02-06 珠海格力电器股份有限公司 一种机器人的控制装置及机器人
JP2023553980A (ja) 2020-12-14 2023-12-26 メイ モビリティー,インコーポレイテッド 自律車両安全プラットフォームシステム及び方法
JP2024500672A (ja) 2020-12-17 2024-01-10 メイ モビリティー,インコーポレイテッド 自律エージェントの環境表現を動的に更新するための方法およびシステム
US11932213B2 (en) * 2021-03-26 2024-03-19 Toyota Research Institute, Inc. System and method for controlling one or more brakes of a vehicle
IT202100007709A1 (it) 2021-03-29 2022-09-29 Proxima Robotics S R L Dispositivo di navigazione autonoma per robot mobili e metodo di realizzazione di tale dispositivo
US11472436B1 (en) 2021-04-02 2022-10-18 May Mobility, Inc Method and system for operating an autonomous agent with incomplete environmental information
US11622495B2 (en) * 2021-06-01 2023-04-11 Gint Co., Ltd. Method of automatically combining farm vehicle and work machine and farm vehicle
US11565717B2 (en) 2021-06-02 2023-01-31 May Mobility, Inc. Method and system for remote assistance of an autonomous agent
US11623637B2 (en) * 2021-06-28 2023-04-11 Ford Global Technologies, Llc Assisted parking maneuvers for vehicles coupled in a towed recharging arrangement
WO2023073412A1 (en) * 2021-10-29 2023-05-04 Ptt Exploration And Production Public Company Limited A method and system for controlling motion of a climbing robot
CN113928286B (zh) * 2021-11-25 2022-06-24 华为数字能源技术有限公司 制动模式切换装置和用于车辆的制动控制系统
WO2023144523A1 (en) * 2022-01-25 2023-08-03 Gama Healthcare Ltd Methods for controlling the movement of a robot for disinfection
WO2023154568A1 (en) 2022-02-14 2023-08-17 May Mobility, Inc. Method and system for conditional operation of an autonomous agent
US11829155B2 (en) * 2022-02-15 2023-11-28 EarthSense, Inc. System and method for navigating under-canopy robots using multi-sensor fusion
WO2023245227A1 (en) * 2022-06-19 2023-12-28 Mohideen Farlin Anooz Vehicle control arrangement
US20240010209A1 (en) * 2022-07-06 2024-01-11 Gm Cruise Holdings Llc Environmental and electromagnetic seal for autonomous vehicle control systems
US20240036579A1 (en) * 2022-08-01 2024-02-01 Trimble Inc. Avoiding collisions with autonomous off-road vehicles
WO2024038424A1 (en) * 2022-08-19 2024-02-22 Institut Teknologi Bandung Manual control to electric signal control tools on container trucks based on hydraulic motors
CN115469672B (zh) * 2022-11-02 2023-03-07 成都铂升科技有限公司 一种室内分布式灯光机器人集群控制方法

Family Cites Families (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
DE2715608C3 (de) 1977-04-07 1983-04-28 Gebr.Claas Maschinenfabrik GmbH, 4834 Harsewinkel Schaltvorrichtung für Lenkautomaten an landwirtschaftlichen Maschinen
US4202037A (en) 1977-04-22 1980-05-06 Der Loos Hendrik Van Computer microscope apparatus and method for superimposing an electronically-produced image from the computer memory upon the image in the microscope's field of view
GB2039078B (en) 1978-12-27 1982-11-24 Ibm Sampled data servo positioning system
US4361202A (en) * 1979-06-15 1982-11-30 Michael Minovitch Automated road transportation system
GB2128842B (en) 1982-08-06 1986-04-16 Univ London Method of presenting visual information
DE3404202A1 (de) 1984-02-07 1987-05-14 Wegmann & Co Einrichtung zur ferngesteuerten fuehrung von kampfpanzern
US4579209A (en) 1984-04-30 1986-04-01 Butterworth Inc. Clutch and throttle system for remote control of engine speed
US4791544A (en) * 1984-09-21 1988-12-13 Veeco Instruments Regulating control for single-ended switching power supply
CA1311852C (en) 1987-01-09 1992-12-22 James R. Allard Knowledge acquisition tool for automated knowledge extraction
US4987402A (en) * 1987-01-21 1991-01-22 Electronic Security Products Of California Alarm system for sensing and vocally warning of an unauthorized approach towards a protected object or zone
US5220497A (en) 1987-11-20 1993-06-15 North American Philips Corp. Method and apparatus for controlling high speed vehicles
DE3800077A1 (de) * 1988-01-05 1989-07-13 Bosch Gmbh Robert Dezentrale ein/ausgabebaugruppe fuer elektronische steuerungen
US4945647A (en) * 1989-03-23 1990-08-07 Allied-Signal Inc. North finding system
AU642638B2 (en) 1989-12-11 1993-10-28 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
US5610815A (en) 1989-12-11 1997-03-11 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
US5640323A (en) * 1990-02-05 1997-06-17 Caterpillar Inc. System and method for operating an autonomous navigation system
US5170352A (en) * 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
US5227973A (en) * 1991-02-26 1993-07-13 Siemens Corporate Research, Inc. Control arbitration system for a mobile robot vehicle
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
DE4200694B4 (de) 1992-01-14 2004-04-29 Robert Bosch Gmbh Verfahren zur Geschwindigkeits- und Abstandsregelung eines Fahrzeugs
DE4392671T1 (de) * 1992-06-10 1995-06-01 Ford Werke Ag Kommunikationssystem für Kraftfahrzeuge
US5563478A (en) * 1992-08-18 1996-10-08 Nikon Corporation Drive control device for an ultrasonic motor
US5455409A (en) * 1993-08-16 1995-10-03 Texas Digital Systems, Inc. Apparatus and method for monitoring a plurality of coded articles and for identifying the location of selected articles
US5662849A (en) * 1993-09-10 1997-09-02 Fulsz Technologies Ltd. Method and apparatus for forming compression dosage units within the product package
JP2944867B2 (ja) 1993-10-26 1999-09-06 三菱電機株式会社 電動パワーステアリング制御装置
US5511147A (en) * 1994-01-12 1996-04-23 Uti Corporation Graphical interface for robot
JP3186401B2 (ja) 1994-02-10 2001-07-11 三菱電機株式会社 車両用距離データ処理装置
DE4415497C1 (de) 1994-05-03 1995-05-24 Siemens Ag Wegesuchverfahren für eine selbstbewegliche mobile Einheit
US5675229A (en) 1994-09-21 1997-10-07 Abb Robotics Inc. Apparatus and method for adjusting robot positioning
DE19507957C1 (de) * 1995-03-07 1996-09-12 Daimler Benz Ag Fahrzeug mit optischer Abtasteinrichtung für einen seitlichen Fahrbahnbereich
US5652849A (en) 1995-03-16 1997-07-29 Regents Of The University Of Michigan Apparatus and method for remote control using a visual information stream
US5873853A (en) * 1995-05-23 1999-02-23 Baxter International Inc. Portable pump apparatus for continuous ambulatory peritoneal dialysis and a method for providing same
US6418324B1 (en) * 1995-06-01 2002-07-09 Padcom, Incorporated Apparatus and method for transparent wireless communication between a remote device and host system
US6053270A (en) * 1995-11-02 2000-04-25 Honda Giken Kogyo Kabushiki Kaisha Steering angle correcting system in vehicle
US6008985A (en) 1995-11-20 1999-12-28 The Foxboro Company Industrial field controlling device with controller and expansion modules
US5794164A (en) 1995-11-29 1998-08-11 Microsoft Corporation Vehicle computer system
US5715902A (en) 1996-01-29 1998-02-10 The United States Of America As Represented By The Secretary Of The Army Retrofit unit for vehicle steering mechanism
JP3581911B2 (ja) 1996-06-07 2004-10-27 コニカミノルタホールディングス株式会社 移動走行車
US5831826A (en) 1996-09-20 1998-11-03 Motorola, Inc. Heat transfer apparatus suitable for use in a circuit board assembly
US6185630B1 (en) * 1997-02-14 2001-02-06 Advanced Micro Devices, Inc. Device initializing system with programmable array logic configured to cause non-volatile memory to output address and data information to the device in a prescribed sequence
US6108031A (en) 1997-05-08 2000-08-22 Kaman Sciences Corporation Virtual reality teleoperated remote control vehicle
US6253161B1 (en) * 1997-07-10 2001-06-26 Universite Laval Integrated motion vision sensor
AU9068698A (en) 1997-07-23 1999-02-16 Horst Jurgen Duschek Method for controlling an unmanned transport vehicle and unmanned transport vehicle system therefor
JPH11144185A (ja) 1997-09-03 1999-05-28 Honda Motor Co Ltd 自動運転制御誘導システム
US6198992B1 (en) 1997-10-10 2001-03-06 Trimble Navigation Limited Override for guidance control system
JPH11149315A (ja) 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd ロボット制御システム
US6055042A (en) 1997-12-16 2000-04-25 Caterpillar Inc. Method and apparatus for detecting obstacles using multiple sensors for range selective detection
US5984880A (en) 1998-01-20 1999-11-16 Lander; Ralph H Tactile feedback controlled by various medium
US7152027B2 (en) * 1998-02-17 2006-12-19 National Instruments Corporation Reconfigurable test system
US6233504B1 (en) * 1998-04-16 2001-05-15 California Institute Of Technology Tool actuation and force feedback on robot-assisted microsurgery system
US6356819B1 (en) * 1998-04-20 2002-03-12 Trimble Navigation Limited Safety system for guidance control system
US6243759B1 (en) 1998-05-08 2001-06-05 International Business Machines Corporation Method and system for configuring dynamic interfaces
EP1121245B1 (de) * 1998-06-18 2008-12-24 Kline & Walker L.L.C. Automatische vorrichtung zur überwachung von auf abstand zu bedienende ausrüstungen und maschinen weltweit anwendbar
JP4014731B2 (ja) * 1998-07-08 2007-11-28 矢崎総業株式会社 リングネットワークシステム
DE19832531A1 (de) * 1998-07-22 2000-02-10 Bosch Gmbh Robert Steuerung für eine Mehrzahl von elektrischen Verbrauchern eines Kraftfahrzeugs
US6088020A (en) 1998-08-12 2000-07-11 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Haptic device
US6113395A (en) 1998-08-18 2000-09-05 Hon; David C. Selectable instruments with homing devices for haptic virtual reality medical simulation
JP2000094373A (ja) 1998-09-28 2000-04-04 Katsunori Takahashi インターネットロボット
US6259980B1 (en) 1998-10-21 2001-07-10 Northrop Grumman Corporation Automated control system for remote vehicles
US6236916B1 (en) 1999-03-29 2001-05-22 Caterpillar Inc. Autoguidance system and method for an agricultural machine
JP4197209B2 (ja) 1999-05-21 2008-12-17 株式会社小松製作所 車両の無人走行システム
CA2377511A1 (en) * 1999-06-24 2001-01-04 Siemens Aktiengesellschaft Drive and propulsion system for ships
US6714121B1 (en) 1999-08-09 2004-03-30 Micron Technology, Inc. RFID material tracking method and apparatus
US6480762B1 (en) 1999-09-27 2002-11-12 Olympus Optical Co., Ltd. Medical apparatus supporting system
WO2001026332A2 (en) 1999-10-06 2001-04-12 Sensoria Corporation Apparatus for vehicle internetworks
JP3595468B2 (ja) * 1999-11-02 2004-12-02 ペンタックス株式会社 双眼鏡とその製造方法
US6678155B1 (en) * 1999-12-14 2004-01-13 Hewlett-Packard Company Modular system of internet service provider focused computer services
JP4233723B2 (ja) 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
US6898492B2 (en) 2000-03-15 2005-05-24 De Leon Hilary Laing Self-contained flight data recorder with wireless data retrieval
US6845297B2 (en) 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
AU2001262962A1 (en) 2000-05-01 2001-11-12 Irobot Corporation Method and system for remote control of mobile robot
ATE305150T1 (de) * 2000-05-17 2005-10-15 Boeing Co Intuitives fahrzeug und maschinensteuerung
US6445983B1 (en) 2000-07-07 2002-09-03 Case Corporation Sensor-fusion navigator for automated guidance of off-road vehicles
JP3498910B2 (ja) 2000-09-05 2004-02-23 日産自動車株式会社 車線追従制御装置
DE10047746A1 (de) * 2000-09-27 2002-04-11 Bayerische Motoren Werke Ag Verfahren zur Längsregelung eines Fahrzeuges, bei dem Informationen eines Navigationssystems erfasst werden
GB0030727D0 (en) * 2000-12-15 2001-01-31 Lumitech Uk Ltd Methods and kits for detecting kinase activity
US6633800B1 (en) * 2001-01-31 2003-10-14 Ainsworth Inc. Remote control system
US6604348B2 (en) 2001-02-06 2003-08-12 Deere & Company Mower with engine-driven blade and electrical propulsion
US7024257B2 (en) 2001-02-09 2006-04-04 Motion Engineering, Inc. System for motion control, method of using the system for motion control, and computer-readable instructions for use with the system for motion control
US20020136939A1 (en) * 2001-02-15 2002-09-26 Grieve M. James Fuel cell and battery voltage controlling method and system
DE10129135B4 (de) 2001-06-16 2013-10-24 Deere & Company Einrichtung zur Positionsbestimmung eines landwirtschaftlichen Arbeitsfahrzeugs sowie ein landwirtschaftliches Arbeitsfahrzeug mit dieser
US6434462B1 (en) 2001-06-28 2002-08-13 Deere & Company GPS control of a tractor-towed implement
KR100413684B1 (ko) 2001-07-05 2003-12-31 삼성전자주식회사 서로 다른 미들웨어를 가진 디바이스들간 통신을 가능하게하는 게이트웨이, 홈네트웍시스템 및 데이터 중계방법
US7245632B2 (en) * 2001-08-10 2007-07-17 Sun Microsystems, Inc. External storage for modular computer systems
US20030080772A1 (en) 2001-08-31 2003-05-01 Davide Giacomini Programmable compact motor drive module
US6873911B2 (en) 2002-02-01 2005-03-29 Nissan Motor Co., Ltd. Method and system for vehicle operator assistance improvement
EP1547361B1 (de) * 2002-09-13 2016-04-06 iRobot Corporation Navigationssteuersystem für eine robotische einrichtung
JP3750644B2 (ja) 2002-09-27 2006-03-01 日産自動車株式会社 車両用運転操作補助装置、車両用運転操作補助方法、およびその方法を適用した車両
WO2004029774A2 (en) * 2002-09-27 2004-04-08 Gounder Manickam A Vehicle monitoring and reporting system
DE10245465A1 (de) * 2002-09-28 2004-04-15 Rexroth Indramat Gmbh Kommunikationssystem mit anschließbarem Interfaceelement
CA2503073A1 (en) 2002-10-31 2004-05-21 Mattel, Inc. Remote controlled toy vehicle, toy vehicle control system and game using remote controlled toy vehicle
CA2412815A1 (fr) 2002-11-27 2004-05-27 Martin Deschambault Plate-forme robotique mobile et modulaire offrant plusieurs modes de locomotion pour effectuer des mouvements evolues en trois dimensions
US6927699B2 (en) * 2002-12-05 2005-08-09 Denso Corporation Object recognition apparatus for vehicle, and inter-vehicle distance control unit
DE10258753B4 (de) * 2002-12-16 2006-05-18 Daimlerchrysler Ag Verteiltes Steuergerät
FI115678B (fi) * 2003-03-25 2005-06-15 Sandvik Tamrock Oy Järjestely kaivosajoneuvon törmäyksenestoon
US6813557B2 (en) * 2003-03-27 2004-11-02 Deere & Company Method and system for controlling a vehicle having multiple control modes
US7046166B2 (en) 2003-04-29 2006-05-16 Rockwell Scientific Licensing, Llc Modular wireless integrated network sensor (WINS) node with a dual bus architecture
US6789014B1 (en) 2003-05-09 2004-09-07 Deere & Company Direct modification of DGPS information with inertial measurement data
US6694260B1 (en) 2003-05-09 2004-02-17 Deere & Company Inertial augmentation for GPS navigation on ground vehicles
US6975246B1 (en) 2003-05-13 2005-12-13 Itt Manufacturing Enterprises, Inc. Collision avoidance using limited range gated video
JP4209257B2 (ja) * 2003-05-29 2009-01-14 三菱重工業株式会社 分散型コントローラとその動作方法、及び、分散型コントローラを備えるフォークリフト
JP4239689B2 (ja) * 2003-05-30 2009-03-18 スズキ株式会社 車両用警報システム及び車両用警報発生方法
US7516244B2 (en) * 2003-07-02 2009-04-07 Caterpillar Inc. Systems and methods for providing server operations in a work machine
US20050021195A1 (en) 2003-07-21 2005-01-27 Rapistan Systems Advertising Corp. Dynamic object avoidance with automated guided vehicle
US6988583B2 (en) 2003-10-30 2006-01-24 Deere & Company Electrical steering system for manned or unmanned operation
JP4311210B2 (ja) 2004-01-19 2009-08-12 株式会社デンソー 車両リアルタイム制御システム、送信ecuおよび受信ecu
US7123522B2 (en) 2004-03-10 2006-10-17 Micron Technology, Inc. Method and apparatus for achieving low power consumption during power down
US7447593B2 (en) 2004-03-26 2008-11-04 Raytheon Company System and method for adaptive path planning
US20050264998A1 (en) * 2004-05-25 2005-12-01 3M Innovative Properties Company Heat sink assembly
US6901319B1 (en) 2004-07-06 2005-05-31 Deere & Company System and method for controlling a ground vehicle
DE202004011226U1 (de) * 2004-07-16 2005-08-25 Dbt Gmbh Einzelsteuergerät für Schildausbaugestelle
US7084588B2 (en) 2004-07-30 2006-08-01 Ballard Power Systems Corporation Method, apparatus and article for motor control voltage dropout detection
JP5038589B2 (ja) 2004-10-04 2012-10-03 株式会社日立製作所 ディスクアレイ装置及びその負荷分散方法
US7248968B2 (en) 2004-10-29 2007-07-24 Deere & Company Obstacle detection using stereo vision
JP4316477B2 (ja) 2004-11-18 2009-08-19 パナソニック株式会社 移動ロボットの追従方法
EP1851728A1 (de) 2005-02-08 2007-11-07 Seegrid Corporation Mehrdimensionale wahrscheinlichkeitsraster sowie system und verfahren zu ihrer verwendung
US7299057B2 (en) 2005-02-23 2007-11-20 Deere & Company Vehicular navigation based on site specific sensor quality data
US7368798B2 (en) * 2005-03-28 2008-05-06 Akros Silicon Inc. Integrated DC/DC converter substrate connections
US20060237968A1 (en) * 2005-04-20 2006-10-26 Rockwell Scientific Licensing, Llc High efficiency power converter for energy harvesting devices
DE112006003044T5 (de) 2005-10-21 2008-10-23 Deere & Company, Moline Vielseitiges Robotersteuermodul
WO2008013568A2 (en) 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
US8805601B2 (en) 2006-02-28 2014-08-12 Toyota Jidosha Kabushiki Kaisha Object path prediction method, apparatus, and program, and automatic operation system
JP4835489B2 (ja) * 2007-03-28 2011-12-14 コニカミノルタビジネステクノロジーズ株式会社 給紙装置及び画像形成装置
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
CN101651553B (zh) 2009-09-03 2013-02-27 华为技术有限公司 用户侧组播业务主备保护系统、方法及路由设备
WO2015183821A1 (en) 2014-05-27 2015-12-03 Gentex Corporation Electrochemical energy storage devices
AU2014395561B2 (en) 2014-05-28 2019-08-15 Starview Technologies Pte. Ltd. Optical transceiver device and method
US9401367B2 (en) 2014-09-30 2016-07-26 Wafertech, Llc Nonvolatile memory cell with improved isolation structures
US10971724B2 (en) 2018-10-15 2021-04-06 Global Graphene Group, Inc. Method of producing electrochemically stable anode particulates for lithium secondary batteries
JP7389812B2 (ja) 2019-03-17 2023-11-30 エヌパーバー,インコーポレイテッド 相互相関のための方法及び装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Cited doc missing
US PROVISIONAL APPLICATION NO. 60/729445
US PROVISIONAL APPLICATION NO. 60/780389
www.deere.com

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2622955B2 (de) 2012-01-31 2021-08-18 Deere & Company Landwirtschaftliche Maschine mit einem System zur selbsttätigen Einstellung eines Bearbeitungsparameters und zugehöriges Verfahren
US20210209367A1 (en) * 2018-05-22 2021-07-08 Starship Technologies Oü Method and system for analyzing robot surroundings
US11741709B2 (en) * 2018-05-22 2023-08-29 Starship Technologies Oü Method and system for analyzing surroundings of an autonomous or semi-autonomous vehicle

Also Published As

Publication number Publication date
US20070219666A1 (en) 2007-09-20
US8473140B2 (en) 2013-06-25
US20150301532A1 (en) 2015-10-22
AU2006304838A1 (en) 2007-04-26
US8874300B2 (en) 2014-10-28
AU2006306523A1 (en) 2007-05-03
WO2007048003A3 (en) 2007-08-02
DE112006002894B4 (de) 2021-11-11
AU2006304812A1 (en) 2007-04-26
WO2007050406A1 (en) 2007-05-03
US7894951B2 (en) 2011-02-22
IL191001A (en) 2013-04-30
GB2445507B (en) 2011-08-24
US20070193798A1 (en) 2007-08-23
DE112006003044T5 (de) 2008-10-23
US20120046820A1 (en) 2012-02-23
AU2006306522A1 (en) 2007-05-03
US20070198144A1 (en) 2007-08-23
AU2006306522B2 (en) 2011-07-28
DE112006003007B4 (de) 2021-09-02
US8020657B2 (en) 2011-09-20
AU2006304812B2 (en) 2012-02-02
WO2007048029A2 (en) 2007-04-26
DE112006002892B4 (de) 2022-01-27
DE112006002892T5 (de) 2008-11-06
GB2445507A (en) 2008-07-09
AU2006306523B2 (en) 2011-05-19
WO2007048029A3 (en) 2007-07-26
AU2006306522B9 (en) 2011-12-08
DE112006002894T5 (de) 2008-09-18
AU2006304838B2 (en) 2011-07-28
US20070198145A1 (en) 2007-08-23
US9429944B2 (en) 2016-08-30
WO2007050407A1 (en) 2007-05-03
US20140350768A1 (en) 2014-11-27
US9043016B2 (en) 2015-05-26
GB0807131D0 (en) 2008-05-21
WO2007048003A2 (en) 2007-04-26
US9098080B2 (en) 2015-08-04
US20110071718A1 (en) 2011-03-24

Similar Documents

Publication Publication Date Title
DE112006003007B4 (de) Systeme und Verfahren zum Vermeiden von Hindernissen
DE102017117698B4 (de) Fahrassistenzvorrichtung für ein Fahrzeug
EP3181421B1 (de) Verfahren und system zur automatischen steuerung eines folgefahrzeugs mit einem vorderfahrzeug
EP2722687B1 (de) Sicherheitsvorrichtung für ein Fahrzeug
DE112016007429T5 (de) Entferntes Betriebssystem, Transportsystem und entferntes Betriebsverfahren
EP3218244A1 (de) Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem
DE102015205133A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Bewegungsplanung für ein zumindest teilweise automatisiertes Fahren eines Fahrzeugs
EP3948466A1 (de) Verfahren und vorrichtung zum teleoperierten fahren eines fahrzeuges
DE112018005910T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiler körper
DE102018112145A1 (de) Steuersystem für autonome fahrzeuge
DE102020100749A1 (de) Ermittlung von wegen für fahrzeuge
DE102018215560A1 (de) Verfahren zum Koordinieren und Überwachen von Objekten
DE102017126026A1 (de) Betrieb einer verkehrsampel
DE102019216363A1 (de) Verfahren zum Bereitstellen eines Signals zur Ansteuerung eines zumindest teilautomatisierten Fahrzeugs
DE102019201264A1 (de) Eine steuervorrichtung und ein verfahren zum verwalten von fahrzeugen
DE102021114424A1 (de) Fahrassistenzvorrichtung, Fahrassistenzverfahren und Fahrassistenzprogramm
EP3454084A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem
DE102018133457B4 (de) Verfahren und System zum Bereitstellen von Umgebungsdaten
AU2011239328B2 (en) Systems and methods for obstacle avoidance
DE102019107443A1 (de) Verfahren und Vorrichtung zum Betrieb eines Roboters mit verbesserter Objektdetektion
DE112022003223T5 (de) Komplementäres steuersystem für ein autonomes fahrzeug
WO2022200020A1 (de) Hinderniserkennung für ein schienenfahrzeug
DE112021006760T5 (de) Verfahren und Systeme zur Erstellung eines Longitudinalplans für ein autonomes Fahrzeug basierend auf dem Verhalten unsicherer Verkehrsteilnehmer
DE112020007365T5 (de) Fahrzeugsteuervorrichtung, fahrzeugsteuerverfahren und programm
DE102020127206A1 (de) Prozess und system zur gemeinsamen nutzung von sensoren für einen autonomen fahrspurwechsel

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20131004

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000