DE112006003007T5 - Systeme und Verfahren zum Vermeiden von Hindernissen - Google Patents
Systeme und Verfahren zum Vermeiden von Hindernissen Download PDFInfo
- Publication number
- DE112006003007T5 DE112006003007T5 DE112006003007T DE112006003007T DE112006003007T5 DE 112006003007 T5 DE112006003007 T5 DE 112006003007T5 DE 112006003007 T DE112006003007 T DE 112006003007T DE 112006003007 T DE112006003007 T DE 112006003007T DE 112006003007 T5 DE112006003007 T5 DE 112006003007T5
- Authority
- DE
- Germany
- Prior art keywords
- data
- vehicle
- obstacle
- robot
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 28
- 230000009471 action Effects 0.000 claims abstract description 37
- 238000013507 mapping Methods 0.000 claims abstract 10
- 238000001514 detection method Methods 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 claims description 21
- 238000012544 monitoring process Methods 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 6
- 230000006378 damage Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 26
- 230000006399 behavior Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 21
- 238000013500 data storage Methods 0.000 description 10
- 230000002085 persistent effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 239000000446 fuel Substances 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 230000001681 protective effect Effects 0.000 description 5
- 238000001088 Auger-photoelectron coincidence spectroscopy Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- SFVLTCAESLKEHH-WKAQUBQDSA-N (2s)-6-amino-2-[[(2s)-2-[[(2r)-2-amino-5-(diaminomethylideneamino)pentanoyl]amino]-3-(4-hydroxy-2,6-dimethylphenyl)propanoyl]amino]-n-[(2s)-1-amino-1-oxo-3-phenylpropan-2-yl]hexanamide Chemical compound CC1=CC(O)=CC(C)=C1C[C@H](NC(=O)[C@H](N)CCCN=C(N)N)C(=O)N[C@@H](CCCCN)C(=O)N[C@H](C(N)=O)CC1=CC=CC=C1 SFVLTCAESLKEHH-WKAQUBQDSA-N 0.000 description 1
- MFRCZYUUKMFJQJ-UHFFFAOYSA-N 1,4-dioxane-2,5-dione;1,3-dioxan-2-one Chemical group O=C1OCCCO1.O=C1COC(=O)CO1 MFRCZYUUKMFJQJ-UHFFFAOYSA-N 0.000 description 1
- 241000270730 Alligator mississippiensis Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0051—Handover processes from occupants to vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T7/00—Brake-action initiating means
- B60T7/12—Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
- B60T7/22—Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0053—Handover processes from vehicle to occupant
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D1/00—Steering controls, i.e. means for initiating a change of direction of the vehicle
- B62D1/24—Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted
- B62D1/28—Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted non-mechanical, e.g. following a line or other known markers
- B62D1/286—Systems for interrupting non-mechanical steering due to driver intervention
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/414—Structure of the control system, e.g. common controller or multiprocessor systems, interface to servo, programmable interface controller
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0055—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements
- G05D1/0061—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements for transition from automatic pilot to manual pilot and vice versa
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Medical Informatics (AREA)
- Manufacturing & Machinery (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Electromagnetism (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Shielding Devices Or Components To Electric Or Magnetic Fields (AREA)
- Regulating Braking Force (AREA)
Abstract
Ein
robotergesteuertes Fahrzeug mit:
einer Robotersteuereinheit mit einer Steueranwendung;
einem Sensor zum Erkennen von Objektdaten, die erkannte Hindernisse oder Objekte repräsentieren, die außerhalb des Roboterfahrzeugs erkannt worden sind, und zum Übertragen der Objektdaten an die Robotersteuereinheit;
wobei die Robotersteuereinheit eine Karte basierend auf den Objektdaten erzeugt, die Karte Kartierungsdaten aufweist und die Kartierungsdaten Positionsdaten der erkannten Hindernisse oder Objekte aufweist; und
wobei die Steueranwendungseinheit basierend wenigstens teilweise auf den Kartierungsdaten Fahrzeugaktionen bestimmt und einen Steuerbefehl an eine Fahrzeugsteuereinheit ausgibt, der die Fahrzeugaktionen repräsentiert.
einer Robotersteuereinheit mit einer Steueranwendung;
einem Sensor zum Erkennen von Objektdaten, die erkannte Hindernisse oder Objekte repräsentieren, die außerhalb des Roboterfahrzeugs erkannt worden sind, und zum Übertragen der Objektdaten an die Robotersteuereinheit;
wobei die Robotersteuereinheit eine Karte basierend auf den Objektdaten erzeugt, die Karte Kartierungsdaten aufweist und die Kartierungsdaten Positionsdaten der erkannten Hindernisse oder Objekte aufweist; und
wobei die Steueranwendungseinheit basierend wenigstens teilweise auf den Kartierungsdaten Fahrzeugaktionen bestimmt und einen Steuerbefehl an eine Fahrzeugsteuereinheit ausgibt, der die Fahrzeugaktionen repräsentiert.
Description
- Bezogene Anmeldungen
- Diese Erfindung beansprucht die Priorität der
U.S. Provisional Patent Application Nr. 60/729,445 U.S. Provisional Patent Application Nr. 60/729,388 U.S. Provisional Patent Application No. 60/780,389 U.S. Provisional Patent Application Nr. 60/838,704 - Diese Erfindung bezieht sich auf die PCT-Patentanmeldung mit der Bezeichnung „System und Verfahren zum Umschalten zwischen einem autonomen und einem manuellen Betrieb eines Fahrzeugs" [Anwaltsaktenzeichen Nr. 56516/336357], die PCT-Patentanmeldung mit der Bezeichnung „System und Verfahren zum Vermeiden von Hindernissen" [Anwaltsaktenzeichen Nr. 56516/336401] und die PCT-Patentanmeldung mit der Bezeichnung „Vernetztes Mehrfunktions-Roboterfahrzeug" [Anwaltsaktenzeichen Nr. 56516/336403], die gleichzeitig eingereicht werden und hier durch Bezugnahme vollständig einbezogen werden.
- GEBIET DER ERFINDUNG
- Diese Erfindung bezieht sich allgemein auf Systeme und Verfahren zur autonomen Steuerung von Fahrzeugen und Fahrzeugsensoren, Aktuatoren und/oder Kommunikationen. Insbesondere beziehen sich Ausführungsbeispiele dieser Erfindung auf ein vielseitiges Robotersteuermodul und Systeme und Verfahren zum Vermieden von Hindernissen unter Verwendung von zwei- und dreidimensionaler Information.
- HINTERGRUND DER ERFINDUNG
- Roboterfahrzeuge oder autonome Fahrzeuge (manchmal als mobile Roboterplattformen bezeichnet) haben im Allgemeinen ein Robotersteuersystem, das die operativen Systeme des Fahrzeugs steuert. Bei einem Fahrzeug, das auf eine Transportfunktion begrenzt ist, können die operativen Systeme die Steuer-, Brems-, Getriebe- und Drosselsysteme beinhalten. Im Oktober 2005 haben fünf derartige autonome Fahrzeuge (von dreiundzwanzig an der Endrunde teilnehmenden Fahrzeugen) die „Grand Challenge" des United States Defense Advanced Research Projects Administration (DARPA) erfolgreich beendet, ein Wettbewerb, der von vollständig autonome Fahrzeuge fordert, eine Strecke, die mehr als einhundert Meilen beträgt, zu bewältigen. Diese Fahrzeuge waren mit Robotersteuersystemen ausgebildet, wobei eine Reihe von Computern alle operativen Systeme des Fahrzeugs steu erten, wie das Lenken, das Bremsen, die Kraftübertragung und das Drosseln in Abhängigkeit von autonomen Entscheidungen, die von Programmen an Bord des Fahrzeugs in Antwort auf einen Sensoreingang ausgeführt werden, ohne eine menschliche Intervention auf der Strecke selbst.
- Robotersteuersystem-Sensoreingaben können Daten aufweisen, die mit dem Zielort des Fahrzeugs, vorprogrammierter Weginformation und Information über erfasste Hindernisse assoziiert sind. Basierend auf einem Datensatz oder mehreren Datensätzen, die mit der oben genannten Information assoziiert sind, werden die Fahrzeugbewegungen gesteuert. Das Erfassen von Hindernissen jedoch kann falsche Datenpunkte erzeugen, unvollständige Hindernisdaten und/oder große Mengen an elektronischer Speicherkapazität und Rechnerleistung zum Berechnen der relevanten Datenpunkte erfordern. Zusätzlich kann das Kombinieren von Hindernisdaten mit Weg- oder Richtungsinformation in Fahrzeugbewegungen resultieren, die als ruckartige oder unsachgemäße Fahrzeugbewegungen charakterisiert werden können.
- ZUSAMMENFASSUNG
- Bestimmte Ausgestaltungen der Erfindung stellen ein Roboterfahrzeug bereit mit einer Robotersteuereinheit und einem Sensor zum Erfassen von Objektdaten, die erfasste Hindernisse oder Objekte darstellen, die außerhalb des Roboterfahrzeugs angeordnet sind und übertragen Objektdaten an die Robotersteuereinheit. Die Robotersteuereinheit kann eine Karte erzeugen, basierend auf den Objektdaten mit Kartendaten. Die Kartendaten können Positionsdaten der erfassten Hindernisse oder Objekte aufweisen. Die Robotersteuereinheit kann über Fahrzeugbewegungen basierend auf den Kartendaten entscheiden.
- In einigen Ausgestaltungen ist ein Roboterfahrzeug bereitgestellt, das eine vordere Sensoranordnung, eine hintere Sensoranordnung und eine Robotersteuereinheit umfasst. Die vordere Sensoranordnung kann einen vorderen Bereichsscan ausführen, um vorwärts gerichtete Daten, die Hindernisse oder Objekte wenigstens vor dem Fahrzeug repräsentieren, zu erhalten. Die hintere Sensoranordnune kann einen nach hinten gerichteten Bereichsscan ausführen, um nach hinten gerichtete Daten zu erhalten, die Hindernisse oder Objekte wenigstens hinter dem Fahrzeug repräsentieren. Die Robotersteuereinheit kann die nach vorne und nach hinten gerichteten Daten empfangen und eine Hinderniskarte basierend auf den nach vorne und nach hinten gerichteten Daten erzeugen. Die Robotersteuereinheit kann einen Prozessor und einen Speicher umfassen. Der Speicher kann eine Hinderniskarte und ausführbaren Code aufweisen, wie etwa eine Range Guard Anwendung und eine Steueranwendung. Die Range Guard Anwendung kann Unterbrechungen in den nach vorne und nach hinten gerichteten Daten erfassen und die Daten wenigstens auf den Unterbrechungen basierend in den nach vorne gerichteten und nach hinten gerichteten Daten, die die Anwesenheit von Hindernissen in nach vorne und nach hinten gerichteten Scanbereich anzeigen, ersetzen. Die Steuereinheit kann einen Weg basierend auf wenigstens einem Teil auf der Hinderniskarte bestimmen und Steuerbefehle an eine Fahrzeugsteuereinheit wenigstens teilweise basierend auf dem Weg ausgeben.
- In einigen Ausgestaltungen der vorliegenden Erfindung kann eine Laserscannerbaugruppe vorgesehen sein, die angepasst ist an ein Roboterfahrzeug angeschlossen zu werden. Die Laserscannerbaugruppe kann einen Laserscanner, einen Scannermechanismus und ein Schutzschild aufweisen. Der Laserscanner kann einen Laserstrahl zum Erfassen der Anwesenheit eines Hindernisses aussenden. Der Scannermechanismus kann die Position des Laserscanners beeinflussen. Das Schutzschild kann den Laserscanner vor Beschädigung schützen und dem Laserstrahl ermöglichen, die Anwesenheit eines Hindernisses zu erfassen. Der Schutzschild kann eine Basis, wenigstens zwei Stützelemente und eine Mehrzahl von Stützlamellen aufweisen. Die Basis kann die Laserscannerbaugruppe mit dem Roboterfahrzeug verbinden. Die wenigstens zwei Stützelemente können mit der Basis verbunden sein. Die Mehrzahl von Stützrippen kann mit den wenigstens zwei Stützelementen verbunden sein.
- In einigen Ausgestaltungen der vorliegenden Erfindung kann das Roboterfahrzeug gesteuert werden, um einem Objekt zu folgen. Das Objekt kann für das Roboterfahrzeug zum Folgen identifiziert sein. Die Position des Roboterfahrzeugs relativ zu einer vorhergehenden Position und eine Bewegung des Objekts können bestimmt werden. Die Bereichsposition des Objekts kann geschätzt werden. Die Position des Objekts kann empfangen werden. Es kann bestimmt werden, ob sich das Objekt innerhalb der geschätzten Bereichsposition befindet. Ein Satz von Wegen, teilweise auf der Objektposition basierend kann berechnet werden. Der Satz von Wegen kann eine Mehrzahl von Wegen aufweisen. Ein Vorrangswert für jeden der Wege kann zugeordnet werden. Der Satz von Wegen kann für einen Fahrvermittler bereitgestellt werden.
- In einem Ausführungsbeispiel der vorliegenden Erfindung kann ein Roboterfahrzeug unter Verwendung einer Hinderniskarte gesteuert werden. Eine Mehrzahl von Punkten, die Teil eines Hindernisses und eine Position des Hindernisses zu einer bestimmten Zeit darstellen, können erhalten werden. Ein Zeitstempel kann mit jedem Punkt assoziiert sein. Die Punkte können in einer Zelle kartiert sein, die in Gitter unterteilt ist. Die Mehrzahl von Punkten kann unterteilt sein in alte, aktuelle und neue Punkte, basierend auf dem assoziierten Zeitstempel. Das Zentrum von wenigstens einem der alten Punkte und der aktuellen Punkte kann bestimmt werden. Das Zentrum des neuen Punkts kann bestimmt werden. Eine Positionsdifferenz zwischen dem Zentrum der neuen Punkte und dem Zentrum von wenigstens einem der alten Punkte und der aktuellen Punkte kann erhalten werden. Eine Geschwindigkeit eines Objekts, basierend auf der Positionsdifferenz, kann bestimmt werden. Das Roboterfahrzeug kann unter Verwendung der Objektgeschwindigkeit gesteuert werden.
- In einem Ausführungsbeispiel der vorliegenden Erfindung kann eine dreidimensionale Karte zur Benutzung in einem robotergesteuerten Fahrzeug erzeugt werden. Ein Laserscanner kann verwendet werden, um einen ersten Scan eines Scanbereichs auszuführen. Zweidimensionale Hindernisdatenpunkte können erhalten werden, die Hindernisse repräsentieren, die sich im Scanbereich befinden. Scandaten können mit den Hindernisdatenpunkten assoziiert werden. Die Scandaten können Scanbereichsdaten aufweisen, die den Scanbereich, darstellen, Scannerwinkeldaten, die den Winkel des Laserscanners repräsentieren, Fahrzeugsgeschwindigkeitsdaten und einen Laserscannersynchronisationspuls. Die Scandaten und die Hindernisdatenpunkte können an eine Robotersteuereinheit gesendet werden. Die Hindernisdatenpunkte können mit einem Zeitstempel versehen werden. Eine Hinderniskarte kann teilweise basierend auf den zeitcodierten Hindernisdatenpunkten und Scandaten erzeugt werden.
- In einer Ausgestaltung der vorliegenden Erfindung können dreidimensionale Hindernisdaten in zweidimensionale Hindernisdaten zum Steuern eines Roboterfahrzeugs umgewandelt werden. Eine Mehrzahl von dreidimensionalen zeitcodierten Hindernisdaten kann von einem Laserscanner erhalten werden. Die Hindernisdaten können den Ort der Hindernisse repräsentieren. Zeitcodierte Fahrzeugdaten des Roboterfahrzeugs können empfangen werden. Die Hindernisdaten können mit voreingestellten Kriterien verglichen werden, um die Hindernisdaten in relevante Hindernisdaten und irrelevante Hindernisdaten zu unterteilen. Die relevanten Hindernisdaten entsprechen nicht den voreingestellten Kriterien und werden verworfen. Die relevanten Hindernisdaten können mit einer zweidimensionalen Punktewolke korreliert werden, die einen Index einer Punkteansammlung entspricht. Hindernisdaten mit Zeitstempeln, die älter als ein voreingestellter Schwellwert sind, können verworfen werden. Eine Hinderniskarte kann aus der Punktanordnung erzeugt werden.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Diese und andere Merkmale, Gesichtspunkte und Vorteile dieser Erfindung werden besser verstanden, wenn die folgende detaillierte Beschreibung mit Bezug auf die beigefügten Zeichnungen gelesen wird, wobei:
-
1 ein Blockdiagramm ist, das ein Robotersteuersystem gemäß einer Ausgestaltung der vorliegenden Erfindung darstellt; -
2A –C Blockdiagramme sind, die das Robotersteuersystem gemäß Ausgestaltungen der vorliegenden Erfindung darstellen. -
3 eine Draufsicht eines beispielhaften Fahrzeugs ist, das Robotersteuermodule gemäß einem Ausführungsbeispiel der vorliegenden Erfindung aufweist; -
4 eine Draufsicht des beispielhaften Fahrzeugs aus3 ist, das eine Maschine und Robotersteuermodule gemäß einem Ausführungsbeispiel der vorliegenden Erfindung aufweist; -
5A –B einen Laserscanner zeigen, mit einem schützenden Schutzschild gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; -
6 ein Blockdiagramm des Laserscanners ist, der mit einer RCU gemäß einem Ausführungsbeispiel der vorliegenden Erfindung kommuniziert; -
7 ein Blockdiagramm eines Fahrervermittleralgorithmus gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist; -
8 ein Blockdiagramm eines Objektbewegungserfassungssystems gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist; -
9 Pfade und Zonen zeigt, die die Bewegungen eines robotergesteuerten Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung betreffen; -
10 Cluster und benachbarte Punkte darstellt, die das Objektbewegungserfassungssystem gemäß einem Ausführungsbeispiel der vorliegenden Erfindung betreffen; -
11A –B Gitterzellen darstellen, die mit Punkteclustern assoziiert sind, die das Objektbewegungserfassungssystem gemäß einem Ausführungsbeispiel der Erfindung betreffen; -
12 ein Flussdiagramm eines 2D zu 3D Umwandlungssystems zum Erfassen von Hindernissen gemäß einem Ausführungsbeispiel der Erfindung ist; -
13A –B 3D-2D Datenpunkte darstellen, die mit dem 3D zu 2D Datenumwandlungssystem gemäß einem Ausführungsbeispiel der Erfindung assoziiert sind; -
14 ein Flussdiagramm eines 3D zu 2D Umwandlungssystems zum Erfassen von Hindernissen ist; -
15 ein Sensorerfassungssystem gemäß einem Ausführungsbeispiel der Erfindung darstellt; -
16 einen Laserscan zeigt, der Löcher oder Negativhindernisse gemäß einem Ausführungsbeispiel der Erfindung erfasst; -
17 einen Laserscan zeigt, der Daten eines möglichen Hindernisses aufgrund einer Diskontinuität der Daten gemäß einem Ausführungsbeispiel der vorliegenden Erfindung erhält; -
18 einen Laserscan zeigt, der Punkte erhält, die auf einen 2D Scanbereich gemäß einem Ausführungsbeispiel der Erfindung abgebildet werden; -
19 eine Single Board Computer Software Architektur für eine RCU gemäß einem Ausführungsbeispiel der Erfindung darstellt; -
20 eine Hinderniskarten/Erkennungsfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird; -
21 eine Teleoperationsfunktion darstellt, die in eine RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird; -
22 eine Folgemodusfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird; -
23 eine Wegpunktsnavigationsfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird; -
24 eine Hindernisvermeidungsfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird; -
25 eine Fahrervermittlungsfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird; -
26 eine Pfadaufnahmefunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird; -
27 eine Pfadabspielfunktion darstellt, die einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird; -
28 eine VCU Schnittstellenfunktion darstellt, die in einer RCU Softwarearchitektur gemäß einem Ausführungsbeispiel der Erfindung ausgeführt wird. - DETAILLIERTE BESCHREIBUNG
- Ausführungsbeispiele der Erfindung schaffen Systeme und Verfahren zur Vermeidung von Hindernissen. Bei einigen Ausführungsbeispielen kann ein robotergesteuertes Fahrzeug geschaffen werden, das in einer oder mehreren Betriebsweisen arbeitet. Beispiele solcher Betriebsweisen weisen eine Fernbedienung, eine Wegpunktnavigation, eine Folgebetrieb und einen manuellen Betrieb auf. DAS Fahrzeug kann ein Hinderniserkennung und -vermeidungssystem aufweisen, das dazu in der Lege ist, mit einem oder mehreren der Fahrzeugbetriebsweisen implementiert zu werden. Ein Steuersystem kann vorgesehen sein, um das Fahrzeug in einer oder mehreren Betriebsweisen oder anderes zu betreiben und zu steuern.
- Illustratives Steuersystem
-
1 ist ein Blockdiagramm auf hohem Niveau eines Fahrzeugsteuersystems100 nach einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeugsteuersystem100 , das in1 gezeigt ist, weist ein Robotersteuersystem104 auf, bei dem das dargestellte Ausführungsbeispiel die vielseitigen Robotersteuermodule106A –106N aufweisen. Die Robotersteuermodule können miteinander verbunden sein und können miteinander und anderen Steuersystemen und Fahrzeugkomponenten über ein Kontroller Area Network (CAN) Bus108 und ein verschaltetes Paketnetz110 , wie etwa ein Ethernetnetz kommunizieren. Bei einigen Ausführungsbeispielen wird lediglich ein geschaltetes Paketnetz110 verwendet. - Das Fahrzeugsteuersystem, das in
1 gezeigt ist, weist weiter verschiedene Betriebssysteme102A –102N auf. Jedes Betriebssystem102A –102N kann in demselben Ausführungsbeispiel in direkter oder indirekter Kommunikation mit einem Robotersteuermodul106A –106N sein. Diese Betriebssysteme102A –102N können zum Steuern der Bewegung des Fahrzeugs verwendet werden und können, beispielsweise, das Lenksystem, das Bremssystem, das Drosselsystem und das Lenksystem aufweisen. Jedes Betriebssystem kann einen Aktuator aufweisen, etwa, beispielsweise, einen Motor, es kann den Betrieb des bestimmten Betriebssystems steuern. Beispielsweise kann das Bremssystem einen Aktuator beinhalten, der den Einsatz der Bremse für das Fahrzeug steuert. - Die Robotersteuermodule oder Robotersteuereinheiten
106A –106N können weiter verbunden sein mit oder auf andere Weise Eingangssignale von Scannern12A –B empfangen bzw. weitergeben, etwa Laserscannern, Kameras114A –B, Funkeinheiten116A –B und ein Global Positioning System (GPS)118 . Die Robotersteuermodule116A –N können auch mit anderen geeigneten Nutzlasten verbunden sein und können mit einer oder mehreren CAN Einheiten122 verbunden sein. Eine CAN Einheit kann, beispielsweise, Dachleuchten oder ähnliche Merkmale des Fahrzeugs steuern. Die Robotersteuermodule106A –N kön nen Eingänge von diesen verschiedenen Einheiten empfangen, beispielsweise, Scanner112A –B, Kameras114A –B und die GPS118 und kann das geeignete Steuerverhalten für das Fahrzeug bestimmen. Die vielseitigen Robotersteuermodule106A –N können eine Steuerinformation oder -signale an die Betriebssysteme liefern zum Ausführen des geeigneten Steuerverhaltens. Wenn, beispielsweise, das geeignete Steuerverhalten das Stoppen des Fahrzeugs ist, kann das Robotersteuermodul106A eine Steuerinformation aussenden, um einen Bremsaktuator des Bremsbetriebssystems102A zu betätigen und den Einsatz der Fahrzeugbremsen verursachen. - Das Fahrzeug kann weiter eine Fahrzeugsteuereinheit (VCU) aufweisen. Die Fahrzeugsteuereinheit empfängt Eingänge und verwendet den Eingang zum Bestimmen, wie die Steuerung eines oder mehrere Betriebssysteme
102A –N gesteuert wird. Die Fahrzeugsteuereinheit kann, beispielsweise, einen Eingang von einem Robotersteuermodul aufnehmen, das angibt, dass das Fahrzeug nach rechts abbiegen soll. In Antwort auf dieses Signal kann die Fahrzeugsteuereinheit ein Steuersignal an das Lenksystem ausgeben, um den Aktuator zu veranlassen, die Lenkwelle zu drehen. - Sowohl die Fahrzeugsteuereinheit (VCU) als auch die Robotersteuermodule können jeweils einen Prozessor beinhalten. Eine Roboterfahrzeugsteuereinheit mit einem Prozessor ist in weiteren Einzelheiten in
19 beschrieben. Der Prozessor kann ein von einem Computer lesbares Medium aufweisen, etwa einen Speicher mit wahlfreiem Zugriff (RAM), der mit dem Prozessor gekoppelt ist. Der Prozessor führt von einem Rechner ausführbare Programmbefehle, die in dem Speicher gespeichert sind aus, etwa Robotersteueralgorithmen. Derartige Prozessoren können einen Mikroprozessor, einen ASIC und Statusmaschinen aufweisen. Die Prozessoren weisen auf oder können in Kombination mit Medien, beispielsweise computerlesbare Medien, die Befehle speichern, die bei ihrer Ausführung von dem Prozessor den Prozessor dazu veranlassen, die hier beschriebenen Schritte auszuführen. Ausführungsbeispiele von computerlesbaren Medien schließen ein, ohne darauf begrenzt zu sein, eine elektronisch, optische, magnetische oder andere Speicher- und Über tragungsgerät, das dazu in der Lage ist, einen Prozessor mit computerlesbaren Befehlen zu versorgen, etwa einem ausführbaren Code. Andere Beispiele von geeigneten Medien weisen, ohne darauf begrenzt zu sein, eine Floppydisk, eine DVD, eine Magnetscheibe, einen Speicher, einen ROM, RAM einen ASIC, einen konfigurierten Prozessor, alle optischen Medien, alle Magnetband- oder andere magnetische Medien oder irgend ein anderes geeignetes Medium, aus dem ein Computerprozessor Befehle lesen kann. Auch können andere Formen von computerlesbaren Medien Befehle zu einem Computer übersenden oder tragen, einschließlich einen Router, ein privates oder öffentliches Netzwerk, eine andere Übertragungseinheit oder -kanal, sowohl verdrahtet als auch drahtlos. Die Befehle können einen ausführbaren Code aufweisen in jeder geeigneten Computerprogrammiersprache, einschließlich, C, C++, C#, Visual Basic, Java, Python, Perl, und JavaScript. -
2A –B sind funktionelle schematische Diagramme eines illustrativen Steuersystems nach einem Ausführungsbeispiel der vorliegenden Erfindung. Das gezeigte Robotersteuersystem weist vier vielseitige Robotersteuermodule oder Roboter Control Units (RCU) und verschiedene Sensoren auf. Das Robotersteuersystem empfängt verschiedene Eingangssignale von Scannern, erzeugt eine Hinderniskarte, bestimmt die Steuerung des Fahrzeugs und sendet Steuerinformation an die Vehicle Control Unit (VCU), die verschiedene Betriebssysteme des Fahrzeugs steuert. Das Ausführungsbeispiel, das in den3A –B gezeigt ist, weist ein Fahrzeugsteuersystem, etwa ein Fahrzeuglevelsteuerabschnitt202 auf, der mit einem Robotersteuersystem kommunizieren kann, etwa einem Roboterebenensteuerabschnitt204 . Die beiden Abschnitte202 ,204 arbeiten als eine Hierarchie. Der Fahrzeuglevelsteuerabschnitt202 behält die Einzigartigkeit des Fahrzeugs, für die es konfiguriert ist, bei. - Die Fahrzeuglevelsteuerung
202 weist eine externe Schnittstelle, einen CAN Diagnoseanschluss auf. Die Fahrzeuglevelsteuerung202 weist weiter ein elektronisches Spannungszentrum208 auf. Das elektronische Leistungszentrum liefert Leistung an einen Getriebe motor210 und einen Bremsmotor212 . Der Getriebemotor210 und der Bremsmotor212 sind Aktuatoren für das Schaltungs- bzw. Bremssystem. - Der Fahrzeuglevelsteuerabschnitt
202 weist weiter eine überwachende Levelsteuereinheit (VCU 1)214 auf. Deren Rolle könnte durch einen zusätzlichen RCU erfüllt werden. Beispielsweise kann die VCU214 ersetzt werden durch eine zusätzliche RCU (beispielsweise die RCU #5), oder eine Kombination einiger RCUs kann ersetzt werden durch zusätzliche VCUs, obwohl eine VCU nicht alle Funktionen der hier beschriebenen RCUs haben. Der überwachende Levelkontroller214 ist in Kommunikation mit verschiedenen Systemen des Fahrzeugs. Beispielsweise ist der überwachende Levelkontroller214 in Kommunikation mit der Schüttmulde, Hilfslichtern und einer Hupe216 . Der überwachende Levelkontroller214 ist weiter in Kommunikation mit dem Getriebemotor210 und dem Bremsmotor212 . - Der Fahrzeuglevelsteuerabschnitt
202 weist weiter ein APECSTM Kontroller218 zur Drosselsteuerung und zur Diagnose auf. Deren Aufgabe könnte von einer zusätzlichen RCU erfüllt werden. Die APECSTM Kontroller218 ist in Kommunikation mit dem Drosselaktuator220 . Die APECSTM Kontroller218 liefert Aktuatorsignale zu und empfängt eine Rückkopplung von dem Drosselaktuator220 . - Der Fahrzeuglevelsteuerabschnitt
202 weist weiter einen Armaturenbrettkontroller222 auf. Der Armaturenbrettkontroller222 sorgt für eine Steuerung eines Betriebsweiseschalters224 und für Scheinwerferleuchten und Standlichtleuchten226 . Der Fahrzeuglevelsteuerabschnitt202 weist weiter den Steuerungsaktuator228 auf. - Der Roboterlevelsteuerabschnitt
204 weist externe Schnittstellen auf. Die externen Schnittstellen des Robotersteuerabschnitts204 , die in3A gezeigt ist, weist eine rückwärtige Nutzlast CAN Schnittstelle230 und eine rückwärtige Nutzlast Ethernet-Schnittstelle232 auf. Die externen Schnittstellen weisen weiter eine vordere Nutzlast CAN Schnittstelle234 und eine Ethernetschnittstelle236 auf. - Der Roboterlevelsteuerabschnitt
204 entsprechend dem in2A gezeigten Ausführungsbeispiel weist vier Robotersteuermodule auf: ein Überwachungsrobotersteuermodul238 , ein rückwärtiges Wahrnehmungsrobotersteuermodul244 , ein nach vorne gerichtetes Wahrnehmungssteuermodul254 und eine Kamera und ein Lenkrobotersteuermodul262 auf. Die Robotersteuermodule238 ,244 ,254 und262 können identisch konfiguriert sein und können für bestimmte Funktionen konfiguriert sein. Wenn die Robotersteuermodule identisch konfiguriert sind, können die Robotersteuermodule basierend auf dem Ort, in dem System oder die Verbindung bestimmen, welche Funktion oder Rolle sie auszuführen haben. Beispielsweise kann ein Widerstand in Verbindung mit einem Robotersteuermodul angeordnet sein und basierend auf dem Widerstand bestimmt das Robotersteuermodul seine jeweilige Funktion. Andere Wege zum Identifizieren der Funktion der Rolle eines Robotersteuermoduls können verwendet werden. - Verschiedene Elemente des Fahrzeuglevelsteuerabschnitts
202 sind in Kommunikation mit Elementen des Roboterpegelsteuerabschnitts204 . Beispielsweise ist das Überwachungsroboterlevelsteuermodul (RCU #1)238 in Kommunikation mit dem elektronischen Leistungszentrum208 , dem APECSTM Kontroller218 und dem Armaturenbrettkontroller222 . Das Überwachungsroboterlevelsteuermodul238 empfängt Eingangssignale von verschiedenen Sensoren und erzeugt Befehle zur Operation eines Fahrzeugs in einer autonomen Weise. Die US Patentanmeldung Nr. 10/972,082; 10/971,718 und 10/98'71,724 beschreiben beispielhafte autonome Weisen und deren Steuerung. - Bei dem in
2A gezeigten Ausführungsbeispiel empfängt das Überwachungsroboterlevelsteuermodul238 ein Signal von einer GPS Navigation/Kommunikationsmodul oder -einheit240 (von, zum Beispiel, NAVCOM Technologie, Torrance, Kananda) und von einem Kompass242 . Diese Sensoren liefern Positions- und Kopfinformation zu dem Kontroller238 für Navigationszwecke. Ausführungsbeispiele der vorliegenden Erfindung können auch andere Sensoren aufweisen. Beispielsweise weist ein Ausführungsbeispiel eine Trägheitsmessungseinheit (IMU) auf, die die Beschleunigung des Fahrzeugs in jeder Rich tung misst. Das Überwachungsroboterlevelsteuermodul238 ist ebenfalls in Kommunikation mit dem rückwärtigen Wahrnehmungssteuerungsmodul (RCU #3)244 . Das rückwärtige Wahrnehmungssteuermodul2224 kann Sensoreingänge von, beispielsweise, einem Laserscanner252 , etwa einem SICK Laserscanner, über eine RS422 Verbindung empfangen. - Das rückwärtige Wahrnehmungssteuermodul
244 ist auch in Kommunikation mit einem Paar von Radioempfängern, einem Nova RoamTM EH900 , einem Radio 1246 und einem 802.11b-kompatiblen Radio, Radio248 . Diese Radios erlauben es, dem rückwärtigen Wahrnehmungssteuermodul244 Befehle von einer Operatorsteuereinheit (OCU)250 aufzunehmen. Die OCU kann, beispielsweise, für eine Fernbedienung des Fahrzeugs in einer autonomen Weise verwendet werden. - Das Überwachungsroboterlevelsteuermodul
238 in dem in2A gezeigten Ausführungsbeispiel ist weiter in Kommunikation mit dem nach vorne gerichteten Wahrnehmungssteuermodul254 . Das nach vorne gerichtete Wahrnehmungssteuermodul254 ist in Kommunikation mit einer Armaturbrettbetriebssteuereinheit (OCU)256 . In dem dargestellten Ausführungsbeispiel weist die Armaturbrett OCU256 ein TDS Recon IPAQTM auf, eine Art eines Personal Digital Assistant. Das nach vorne gerichtete Wahrnehmungssteuermodul254 ist auch in Kommunikation mit einem nach vorne gerichteten Laserscanner260 . Bei einem Ausführungsbeispiel ist der nach vorne gerichtete Laserscanner260 ein Laserscanner vom nickenden Typ und weist einen Laserscannermotor258 auf, der die Bewegung des Scanners260 steuert. Das nach vorne gerichtete Wahrnehmungssteuermodul254 sendet Steuersignale zum Steuern des Laserscannermotors258 aus. - Das überwachende Roboterlevelsteuermodul
238 ist weiter in Kommunikation mit einem Kamera- und Steuerungskontroller (RCU #4)262 . Der Kamera- und Lenkungskontroller262 ist in Kommunikation mit einer Rückwärtsfahrbetriebskamera264 und einer Vorwärtsfahrbetriebskamera268 . Der Kamera- und Lenkungskontroller262 ist weiterhin Zweiweg Kommunikation mit dem Lenkungsaktuator228 und dem überwachenden Fahrzeuglevelkontroller214 des Fahrzeugsteuerabschnitts202 . - Das Layout der verschiedenen Kontroller und Sensoren, die in den
3A –B gezeigt sind, können in einer Vielzahl von Art und Weisen in Ausführungsbeispielen der vorliegenden Erfindung implementiert sein. Beispielsweise können die verschiedenen Kontroller kombiniert sein oder aufgeteilt sein in verschiedener Art und Weise Abhängigkeit von der Anzahl und der Typen der verwendeten Sensoren und Abhängigkeit von der Konfiguration des Fahrzeugs. Auch können verschiedene Sensoren und Instrumente auf unterschiedliche Weise verwendet werden. So können Ausführungsbeispiele der vorliegenden Erfindung eine Sensorvereinigung verwenden, um effizient zu arbeiten. Eine Sensorvereinigung erlaubt ein Betrieb des Fahrzeugs auch dann, wenn bestimmte Sensoren nicht arbeiten. -
2C zeigt ein weiteres Ausführungsbeispiel einer Fahrzeuglevelsteuerung150 in Kommunikation mit einer Roboterlevelsteuerung204 von2C . Bei diesem Ausführungsbeispiel ist eine Überwachungssteuereinheit (VCU)154 vorgesehen, die der Überwachungsfahrzeuglevelsteuerung (VCU 1) von2B entspricht. Die Überwachungs VCU154 kann Steuersignale aussenden, auch als „Digital with Direction" in anderen Ausführungsbeispielen bezeichnet, an die Schüttmulde, den Signalgeber und die Signallichter156 bezeichnet. Ein Überwachungs VCU154 kann Steuersignale von dem Betriebsschalter158 empfangen. Die Überwachungs VCU154 empfängt weiter Rückkopplungssignale, bezeichnet als „Rückkopplungsschleife" in anderen Ausführungsbeispielen, von jedem der Odometriesensoren160 , dem Gangschaltungsaktuator164 , dem Bremsaktuator166 und der Kraftstoffpumpe172 . Bei dem Ausführungsbeispiel von2C ist ein gesonderter Odometriesensor160 vorgesehen. Bei anderen Ausführungsbeispielen werden der Gangschaltungsaktuator164 , der Bremsaktuator166 und die Kraftstoffpumpe172 als austauschbar als Getriebemotor, Bremsmotor bzw. Drosselaktuator bezeichnet. Die Fahrzeuglevelsteuerung150 hat ein Lastzentrummodul162 , als „Leistungszentrum" in anderen Ausführungsbeispielen bezeichnet wird. Das Lastzentrummodul162 ist an einer CAN Kom munikation mit der Roboterlevelsteuerung204 und sendet weiter Steuersignale an den Gangschaltungsaktuator164 , den Bremsaktuator166 und den Scheinwerfer/Standlicht-Leuchten168 . Schließlich kann die Fahrzeuglevelsteuerung150 eine Maschinenkontrollereinheit oder eine ECU170 aufweisen, in anderen Ausführungsbeispielen auch als „Drosselsteuerung" bezeichnete. Die ECU170 ist in CAN Kommunikation mit der Roboterlevelsteuerung204 und steuert die Kraftstoffpumpe172 zum Liefern von Kraftstoff zu der Maschine. - Bei einem Ausführungsbeispiel ist das Fahrzeug mit einem Hindernisserkennungs/Hindernissvermeidungs(ODOA)-System ausgerüstet, von dem Ausführungsbeispiele im Folgenden beschrieben werden, das dazu ausgebildet ist, zu dem Fahrzeug externe Hindernisse zu erkennen und richtige Steuerungsaktionen zu initiieren, um diese zu vermeiden.
- Robotersteuermodul
- Bestimmte Robotersteuermodule entsprechend Ausführungsbeispielen der vorliegenden Erfindung können einen oder mehrere Prozessoren und zugehörige Speicher aufweisen, etwa einen einzigen Bordcomputer mit einem Mikroprozessor, einem Netzwerkschalter wie einen Ethernetschalter, einen Aktuatorcontroller, etwa einen umprogrammierbaren Motorcontroller, einen Aktuatorverstärker, etwa einen Motorverstärker, und eine Spannungsversorgung in einem einzigen montierbaren Gehäuse.
- Wie im Folgenden anhand der
19 –28 gezeigt, kann ein ausführbarer Code in dem Speicher des Robotersteuermoduls gespeichert sein, der von einer CPU ausgeführt werden kann, um das Robotersteuermodul dazu in die Lage zu versetzen, Robotersteuerverläufe auszuführen und diese zu lenken. Jedes Robotersteuermodul in dem Robotersteuersystem kann mit mehreren ausführbaren Codeteilen für unterschiedliche modulare Aufgaben innerhalb des Steuersystems ausgebildet sein. Zum Beispiel kann jedes Robotersteuermodul einen ausführbaren Code für eine Überwachungsaufgabe für eine Aktuatorsteuerung, für ein Sensorbeobachten usw. einschließen. Das Steuermodul kann konfigurierbar sein um nur einen ausgewählten Teil des geeigneten Codes auszuführen, das für die Aufgabe des bestimmten Robotersteuermoduls geeignet ist. - Beispiele der Teile des ausführbaren Codes können ein Verlauflenkungscode, ein Verlaufscode, ein Sensorantriebscode, ein Antriebssteuercode, ein Aktuatrosteuercode, ein Datenmanagementcode, ein Datenbasiscode und ein Datenkonvertercode sein. Jedes Robotersteuermodul kann die Funktion oder die Aufgabe, die es ausführen will, bestimmen und welcher ausführbare Code basierend auf dem Ort, den Verbindungen und anderen geeigneten Verfahren, wie oben beschrieben, es ausführen will. Dies erlaubt eine Austauschbarkeit der Robotersteuermodule.
-
19 zeigt ein Ausführungsbeispiel einer einzigen Bordcomputer (SBC) Softwarearchitektur für eine Robotersteuereinheit. Die SBC1900 weist einen Prozessor1902 und eine Netzwerkverbindung1904 auf. Die Netzwerkverbindung1904 kann eine oder mehrere Netzwerkverbindungen sein. Beispiele derartiger Netzwerkverbindungen1904 weisen Ethernet TCP/IP, USB und CAN Verbindung auf wie J1939. - Die Netzwerkverbindungen
1904 sind zum Verbinden mit einer Mehrzahl von Geräten außerhalb des SBC1900 eingerichtet, so dass das SBC1900 eine Mehrzahl von Arten von Daten und/oder Steuersignalen empfangen und aussenden kann. Die RCU kann weiter ein computerlesbares Medium aufweisen, etwa ein Speicher1906 . Der Speicher1906 kann jede Art eines Speichers sein. Beispiele des Speichers1906 weisen einen Speicher mit wahlfreiem Zugriff („RAM") einen Nur-Lese-Speicher („ROM") einen optischen Speicher und einen magnetischen Speicher auf. Der Speicher1906 kann eine Datenspeicherung und/oder eine dauerhafte Datenspeicherung aufweisen zum Speichern von verschiedenen empfangenen oder berechneten Daten und einem ausführbaren Code. Beispiele derartiger Daten und/oder Steuersignale, die von dem SVC1900 empfangen worden sind, weisen Laserscannerbereichsdaten GPS Positionsdaten, Kompassausrichtungsdaten, Fernbedienungsbefehle von einer entfernten Operatorsteuereinheit (OCU), Armaturenbrettdisplaystatus und -eingang, Softwareupgrades, Fahrzeugstatusinformation, Fahrzeugbetriebsartschalter und Diagnosekommandos von CAN Diagnoseanschlüsse auf. Beispiele derartiger Daten und/oder Steuersignale, die von dem SBC1900 übertragen worden sind, weisen telemetrische Daten an einen entfernten OCU, Armaturenbrettdisplaybefehle, Softwareupdates zu anderen RCUs, Dateien, Antriebsbefehle an eine Fahrzeugsteuereinheit und Diagnoseantworten an einen CAN Diagnoseanschluss auf. - Wie in weiteren Einzelheiten unten unter Bezugnahme auf die
20 –28 beschrieben werden wird, weisen Beispiele eines ausführbaren Codes, ein Betriebssystem, wie beispielsweise BlueCat Linux, einen Datentransport, der eine Software aufweist, wie beispielsweise iRobot AWARETM zum Unterstützen des SBC1900 bei dem Kommunizieren mit äußeren Einheiten und/oder Anwendungen1908 auf. Die Applikationen1908 können einen oder mehrere RCU funktionelle Codes und Betriebsverhalten aufweisen. Beispielsweise können die Applikationen1908 einen Konfigurationscode1910 aufweisen, der Konfigurationsdaten von einer Speicherung, etwa einer dauerhaften Speicherung, liest, und diese Werte in geeignete Orte in den Datentransport einbringt. - Die Applikationen
1908 können weiter eine Hinderniskarte, Erkennungs- und/oder Vermeidungscode1912 aufweisen. Die Hinderniskarte und der Erkennungscode können Eingangsbereich- oder Odometriedaten empfangen und eine zweidimensionale Hinderniskarte konstruieren. Der Hindernisvermeidungscode kann Bahnen von einem Betriebslenker1920 aufnehmen und Hindernisdaten von der zweidimensionalen Hinderniskarte und diese Bahnen entsprechend den Hindernisvermeidungsregeln bewerten. - Andere Applikationen
1908 können einen Fernbedienungscode1914 aufweisen, der Eingangsbefehle von einer entfernten OCU empfängt und einen Bahnsatz zur Verwendung durch einen Betriebslenker1920 und verschiedene diskrete Werte ausgibt. Die Applikatio nen1908 können weiter einen Folgebetrieb1916 oder halbautonomen Betrieb aufweisen, der Hindernisdaten von der Hinderniskarte zum Orten eines Zieles oder eines Objekts, dem zu folgen, empfängt ist und einen Bahnsatz zur Verwendung durch den Betriebslenker1920 ausgibt. Ein Wegpunktnavigationscode1918 kann weiter in die Applikation1908 eingebunden sein. Der Wegpunktnavigationscode1918 kann Eingabewegpunktwerte von einem gewählten Pfad einer Ausgabe eines Bahnsatzes zur Verwendung durch den Betriebslenker1920 empfangen. Der Betriebslenker1920 kann mit Applikationen1908 versehen sein zum Empfangen von Eingangsbahnsätzen und Prioritäten von verschiedenen Betriebsverläufen, Hindernisdaten von der Hinderniskarte und Konfigurationsdaten von verschiedenen Konfigurationspublikationen. Der Betriebslenker1920 kann auch ausgewählte Bahndaten zu Aktuatoren oder anderen Geräten außerhalb des SBC1900 ausgeben. - Die Applikationen
1908 können weiter einen Datenloggingcode1922 aufweisen, der Statusdaten von Fahrzeugsensoren aufnimmt und Daten in einen Datenspeicher schreibt, etwa einen dauerhaften Datenspeicher. Nach dem Empfangen eines Operatorbefehls kann der Datenloggingcode1922 Daten drahtlos oder über eine Drahtleitung an ein OCU oder eine entfernbare Datenspeichereinheit kopieren. Diese Applikationen können eine Wegaufzeichnung und einen Wegrückspielcode1924 aufweisen. Der Bahnaufzeichnungscode kann Fahrzeugsensoren und Eingaben von einem Operator empfangen und diese Daten, etwa Wiedergaben von Fahrtwegpunkten, zur Datenspeicherung einschreiben, etwa einem dauerhaften Datenspeicher. Der Pfadrückspielcode kann einen Pfad empfangen, wie er von einem Operator vorgegeben worden ist und kann die Wegpunkte, die in diesen Weg eingeschlossen sind, an die Wegpunktnavigation abspielen. - Die Applikation
1908 kann weiter einen Telemetriecode1926 aufweisen, der Statusdaten von Fahrzeugsensoren empfangen und Pakete an eine entfernte ODU aussenden kann. Eine Armaturenbrettdisplaysteuerung1928 kann weiter an der Applikation eingeschlossen sein, die Statusdaten von Fahrzeugsensoren und Eingaben von einem Tastaturdisplay empfangen kann und Displaybefehle an das Armaturenbrettdisplay ausgeben kann. - Diese Applikationen
1908 können auch einen Versionsupgrademanager1930 , eine VCU-Schnittstelle1932 und eine Bereichsschutzapplikation1934 aufweisen. Der Versionsupgrademanager1930 kann Softwareupgrades empfangen und Softwareupgrades über andere RCUs verteilen. Die VCU Schnittstelle1932 kann Betriebs- und Diagnosebefehle empfangen und Betriebsbefehle an die VCU an geeignete CAN Botschaften aussenden und Diagnosebotschaften an andere RCUs aussenden und deren Berichte an die VCU zurückgeben. Die Bereichsschutzapplikation1934 kann Unterbrechungen der Hindernisdaten von dem Laserscanner erkennen und Ersatzdaten ausgeben, die in jede Richtung nah sind, die von den Laserscannern erkannt werden können. - Die
20 –28 zeigen bestimmte Ausführungsbeispiele einer RCU softwarearchitektur die Applikationsebenenfunktionen ausführen und Softwaremodule für den gegenwärtigen Applikationsbereich aufweisen und Softwaremodule für andere Applikationsbereiche.20 zeigt eine Hinderniskarte/Erkennung RCU Softwarearchitektur2000 . Die RCU Softwarearchitektur weist eine Applikationsebene2002 auf, die eine oder mehrere Applikationen aufweisen kann, etwa eine Hinderniskarte/Detektionsapplikation2004 , eine Datentransportebene2006 , eine Betriebssystemebene2008 und eine Datenspeicher/Netzwerkverbindungsebene2010 . Das Betriebssystem2008 kann ein Betriebssystem aufweisen, etwa ein Linux Betriebssystem. Die Datenspeicherungs/Netzwerkverbindungsschicht2010 kann eine Datenspeicherung wie eine dauerhafte Datenspeicherung aufweisen und eine oder mehrere Netzwerkkonnektoren wie CAN, USB und Ethernet. - Bei dem in
20 dargestellten Ausführungsbeispiel wird die Hinderniskarten/Detektionsapplikation2004 durch Empfangsbereichsdaten von einem vorderen Laserscanner2012 und einem rückwärtigen Laserscanner2014 über eine TCP Verbindung ausgeführt. Die Bereichsdaten werden durch einen 3D-zu-2D Hindernisdetektor2018 über eine FIFO Flusskontrolle empfangen. Ein 3D-zu-2D-Hindernisdetektor2018 empfängt weiter Odometriedaten von einer VCU Schnittstelle2016 über einen geteilten Speicher. Die Odometriedaten können Geschwindigkeitsdaten aufweisen, die dem Fahrzeug zugehörig sind. - Der 3D-zu-2D-Hindernisdetektor
2018 empfängt die Bereichsdaten und die Odometriedaten zur Erzeugung eine 2D Hinderniskarte2020 . -
21 zeigt ein Ausführungsbeispiel einer Fernbedienung die ausgeführt wird in einem RCU2100 . Die Fernbedienungsapplikation2104 kann Eingangsdaten von einem entfernten OCU aufnehmen und einen Bahnsatz für einen Betriebsarbiter ausgeben und verschiedene diskrete Werte. Die Fernbedienungsapplikation2104 kann durch Empfangen von Fernbedienungsbefehlen diskrete Daten von einem entfernten OCU über einen Ethernetkonnektor und ein Protokoll ausführen, etwa ein Verwendetdatagrammprotokoll (UDP) bei einer diskreten Fernbedienung2116 . Die diskrete Fernbedienung2116 kann Befehle von dem OCU empfangen und diese als Daten für diskrete Befehle wie Gänge, Folgeverhalten, Ein/Aus, Starter, Brennstoffunterbrechung, Hupe, Missachten der Hindernisvermeidung, Umkehrwegaufzeichnung Ein/Aus, Hinzufügen von Punkten zu gegenwärtigem Pfad, Auswählen Pfad zum Rückspielen und Rückspielpfad in umgekehrter Reihenfolge. Ein Fernbedienungsverlauf2118 empfängt einen Fernbedienungsbefehlstrom von einer entfernten RCU2114 über einen Ethernetverbinder und UDP. Das Fernbedienungsverhalten2118 gibt einen Bahnsatz basierend auf dem Kommandostrom2114 an einen Betriebsarbiter2120 aus. -
22 zeigt ein Ausführungsbeispiel eines folgenden (halb-autonomer Betrieb) Ausführung in einer RCU Softwarearchitektor2200 . Die RCU Architektur2200 weist eine Applikationsebene2202 auf, die eine folgende (halb-autonomer Betrieb)2204 Applikation hat, die Hindernisdaten von der Hinderniskarte aufnehmen kann, um einen Leiter zu lokalisieren und einen Bahnsatz zur Verwendung von dem Betriebsarbiter zu verwenden. Das Folgen (halb-autonomer Betrieb)2204 führt durch Einschließen eines Folgeverhaltens2216 eine Funktion aus, die Daten von einer Antriebskonfiguration2212 und einer 2D Hinderniskarte2214 über einen geteilten Speicher aufnimmt. Das Folgeverhalten2216 empfängt weiter ein Folgeverhalten, etwa von einem Betriebssystem2208 oder von einem außen liegenden Gerät, etwa einem OCU. Das Folgeverhalten2216 erzeugt einen Bahnsatz basierend auf den empfangenen Daten und erzeugt einen Bahnsatz für den Betriebsarbiter2218 . -
23 zeigt ein Ausführungsbeispiel einer Wegpunktnavigation (autonomer Betrieb), die ausgeführt wird in eine RCU Softwarearchitektur2300 . Die RCU Softwarearchitektur2300 weist eine Applikationsebene2302 auf, die eine Wegpunktnavigation (autonomer Betrieb) Applikation2304 aufweist, die Eingangswegpunktwerte von einem ausgewählten Weg aufnehmen kann und einen Bahnsatz zur Verwendung von einem Betriebsarbiter2322 ausgeben kann. Die Wegpunktnavigationsausführung nimmt Wegpunkte von einem entfernten OCU2312 über eine Ethernetverbindung und einem TCP Verbindungsprotokoll zu einer Wegpunktlistenmanager2320 über ein FIFO auf und GPS Daten von einem GPS2314 über die Ethernetverbindung und ein UDP Protokoll zu einem Wegpunktverlauf. Der Wegpunktlistenmanager2316 empfangt weiter Wegpunkte von einem Pfadmanager2316 über das FIFO. Der Wegpunktlistenmanager2316 nach einigen Ausführungsbeispielen weist nur einen Eingabe FIFO auf und sowohl der Manager2316 als auch der entfernte OCU2312 schreiben in den FIFO Eingang. Der Wegpunktlistenmanager2320 schafft Wegpunktdaten zu einem Wegpunktverlauf2322 über das TCP. Der Wegpunktverlauf2322 empfängt Odometriedaten von einer VCU Schnittstelle2318 über UDP und erzeugt einen Bahnsatz der an einem Antriebsarbiter vorgesehen ist. -
24 zeigt ein Ausführungsbeispiel einer Hindernisvermeidung, ausgeführt in einer RCU Softwarearchitektur2340 . Die RCU Softwarearchitektur2400 weist eine Applikationsebene2402 auf, die eine Hindernisvermeidungsapplikation2404 aufweist. Die Hindernisvermeidungsapplikation2404 kann Eingangsbahnen von einem Antriebsarbiter2418 und Hindernisdaten von einer 2D Hinderniskarte2414 aufnehmen und die Bahnen entsprechend den Hindernisvermeidungsregeln bewerten. Die Hindernisvermeidungsapplikation2404 weist einen Hindernisvermeidungsverhaltenscode2416 auf, der Daten von einer 2D Hinderniskarte2414 , Konfigurationsdaten von einer Antriebskonfiguration2412 , ein Hindernisvermeidungsverhalten von einem Betriebssystem2408 und/oder einer außenliegenden Einheit, etwa einem RCU und einen Eingangsbahnensatz von dem Antriebsarbiter2418 empfangt. Der Hindernisvermeidungsverhaltenscode2416 bewertet die Bahnsätze basie rend auf den Konfigurationsdaten, den Hinderniskartendaten und dem Hindernisvermeidungsverhalten und liefert den Bahnsatz an den Antriebsarbiter2418 . -
25 zeigt ein Ausführungsbeispiel eines Antriebsarbiters der eine RCU Softwarearchitektur2500 ausführt. Die RCU Softwarearchitektur2500 weist eine Applikationsebene2502 auf mit Applikationen, etwa einem Antriebsarbiter2504 . Der Antriebsarbiter2504 kann Bahnsätze und Prioritäten von verschiedenen Verläufen, Hindernisdaten aus der Hinderniskarte und Konfigurationsdaten aus verschiedenen publizierten und ausgegebenen ausgewählten Bahnsätzen beinhalten. Ausführungsbeispiele des Antriebsarbiters können zwischen 10 und 100 Hz arbeiten. Bei einem Ausführungsbeispiel arbeitet der Betriebsarbiter bei 20 Hz. Die Betriebsarbiterapplikation2504 weist einen Antriebsarbitercode2520 auf, der Bahnsätze von einer Mehrzahl von Funktionen empfängt wie einem Hindernisvermeidungsverhalten2512 , Wegpunktnavigation (autonomer Betrieb) Verhalten2516 , Folgeverhalten (halb-autonomer Betrieb) Verhalten2514 und Fernbedienungsverhalten2518 über gemeinsame Speicher oder anders. Der Antriebsarbiter2520 empfängt weiter Plattformdaten über den gemeinsamen Speicher von einem Betriebssystem2508 oder einem außenseitigen Gerät. Basierend auf den empfangenen Daten kann der Antriebsarbiter2520 Geschwindigkeits- oder andere Befehle erzeugen und den Befehl an eine VCU Schnittstelle2520 anlegen. Die VCU Schnittstelle2522 kann die Befehle über ein VCU oder anders kommunizieren. -
26 zeigt ein Ausführungsbeispiel einer Pfadaufzeichnungsausführung in einer RCU Softwarearchitektur2600 . Die RCU Softwarearchitektur2600 weist eine Applikationsebene2620 auf mit einer Pfadaufzeichnungsapplikation2604 . Die Pfadaufzeichnungsapplikation2604 kann Ortsdaten von den Fahrzeugsensoren aufnehmen und Eingaben von einem Operator und Daten in einen dauerhaften Datenspeicher einschreiben, der die Wegpunkte für einen Pfad darstellt. Beispielsweise kann der Pfadmanagercode2618 vorgesehen sein, der Befehle von einem entfernten OCU2612 und/oder Armaturenbrettdisplay2614 über eine Ethernetverbindung aufnehmen kann. Die Befehle können neue Pfade aufzeichnen, Wegpunkt aufzeichnen, neue Pfade löschen und neue Pfade sichern. Der Pfadmanagercode2616 kann weiter GPS Daten von einem GPS2612 und Datennamen und Typen von dauerhaften Datenspeicherungen einschließlich Datenspeicher/Netzwerkverbindungsschicht2610 aufnehmen. Der Wegmanager2518 kann Daten aussenden wie eine Anzahl von existierenden Pfadwegen, Namen von existierenden Pfaddateien, Namen einer Pfaddatei, die gegenwärtig verwendet wird und einen Pfadmanagerzustand zu einer Datentransportebene2606 . Der Pfadmanager2618 kann weiter Wegpunktdaten über einen Filter2622 an einen dauerhaften Datenspeicher aussenden. -
27 zeigt ein Ausführungsbeispiel einer Pfadrückspielung, die in einer RCU Softwarearchitektur2700 ausgeführt wird. Die RCU Softwarearchitektur2700 weist eine Applikationsebene2702 auf, die Applikationen aufweisen kann, etwa eine Pfadrückspielapplikation2704 . Die Pfadrückspielapplikation2704 kann einen Pfad empfangen, der durch einen Operator ausgebildet wird und die Wegpunkte, die den Weg zu einer Wegpunktnavigation einschließen, abspielen. Beispielsweise kann der Pfadmanagercode2716 Befehle empfangen, wie einen abgespielten Pfad und Pfadnamen von einem entfernten OCU2712 und/oder Armaturenbrett OCU, wie einem Armaturenbrettdisplay2714 . Der Pfadmanager2716 kann auch Dateinamen und -typen von einem dauerhaften Speicher empfangen. Der Datenmanager2716 kann Wegpunkte zu einem Armaturenbrettlistenmanager2718 erzeugen, der mit einer Wegpunktnavigationsapplikation (nicht gezeigt) kommunizieren kann. -
27 zeigt ein Ausführungsbeispiel einer VCU Schnittstelle, die in einer RCU Softwarearchitektur2800 ausgeführt wird. Die RCU Architektur2800 kann eine Applikationsebene2802 aufweisen mit Applikationen, etwa einer VCU Schnittstelle2804 . Die VCU Schnittstellenarchitektur2804 kann Betriebs- und Diagnosebefehle empfangen und Betriebskommandos über ein VCU über eine geeignete CAN Botschaft aussenden, Diagnosebotschaften zu anderen RCUs aussenden und Berichte an den VCU zurückgeben. Die VCU Schnittstellenapplikation2804 kann einen VCU Treiber2816 beinhalten, der Konfigurationsdaten von einer Konfiguration2812 aufnimmt und Geschwindigkeits- oder andere Fahrzeugbe fehle von einem Betriebsarbiter2814 und Odemetriedaten und/oder andere Statusdaten an eine Datentransportebene2806 und CAN Befehle an einen VCU über einen CAN Konnektor und eine Datenspeicher/Netzwerkverbindungsschicht2810 aussenden. Der VCU Treiber2816 kann weiter Statusinformationen von der VCU über die CAN Konnektion empfangen. - Illustratives Fahrzeug
- Ausführungsbeispiele der vorliegenden Erfindung können in einer Vielzahl von Fahrzeugen verwendet werden, etwa Automobilen, Lastwagen, Lieferwagen und jedem anderen geeigneten autonomen Fahrzeug. Wie oben beschrieben, können mehrere Robotersteuermodule in einem Robotersteuersystem eines Fahrzeugs oder einer mobilen Plattform verwendet werden. Die Robotersteuermodule können gemeinsam arbeiten, beispielsweise, wie unter Bezugnahme auf die
1 und2A –B gezeigt, um die Verarbeitung und das Rechnen des Robotersteuersystems zu verteilen. - Die
3 und4 sind Draufsichten auf ein illustratives Fahrzeug nach einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeug300 , das in den3 und4 gezeigt ist, ist ein sechsrädriges, mit Diesel betriebenes Gebrauchsfahrzeug, etwa ein John DeereTM GatorTM (www.deere.com). Es ist zu beachten, dass die3 und4 das Fahrzeug300 zeigen mit einer Maschine316 und mit einer Schüttmulde am rückwärtigen Teil, wobei die Schüttmulde am rückwärtigen Teil des Fahrzeugs300 entfernt ist. Ausführungsbeispiele der vorliegenden Erfindung schaffen ein verteiltes Robotersteuersystem für ein Roboterfahrzeug, etwa das Fahrzeug300 oder eine mobile Plattform, die eine Roboterplattform beinhaltet mit einem Körper und einer Maschine oder Motor316 , die mit einem Antrieb versehen ist, einen definierten Satz von Robotersteuerroutinen, die ausgewählt sind aus einer Verhaltensarbitration und Verläufen; Sensortreibern, Antriebs/Aktuatorcontrollern, Datenbasismanagement und Datenbasis oder Datenwandlern. Das Fahrzeug kann auch eine Mehrzahl von austauschbar montierbaren Modulen238 ,244 ,254 ,262 haben, jedes aus tauschbar montierbare Modul238 ,244 ,254 ,262 weist einen Spannungseingang, eine Mehrzahl von Netzwerkkonnektoren und einen Mehrstift-Konnektor auf, der von außerhalb des austauschbar montierbaren Moduls zugänglich ist und jedes austauschbar montierbare Modul weist eine Mikroprozessorplatine auf mit einem einen Code ausführenden dynamischen Speicher (beispielsweise SDRAM). Die Mikroprozessorplatine kann weiter eine Mehrzahl von Protokolltransceivern aufnehmen. Der Mehrstift-Konnektor kann in der Lage sein zum Kommunizieren mit der Mehrzahl von Protokolltransceiversensoren. Die Mikroprozessorplatine kann weiter einen nicht-flüchtigen Speicher mit einem ausführbaren Code aufweisen. Jede Mikroprozessorplatine eines austauschbar montierbaren Moduls kann konfigurierbar sein, um einen ausgewählten Teil eines ausführbaren Codes auszuführen. Ein Paketnetzwerkschalter kann auch vorgesehen sein. Jeder aus der Mehrzahl von Netzwerkkonnektoren kann in der Lage sein zum Verbinden eines Paketnetzwerks, das über den Körper verteilt ist und mit dem Paketnetzwerkschalter kommuniziert. Das Paketnetzwerk kann dazu in der Lage sein Befehle zu oder von einer Mikroprozessorplatine weiter zu geben. Die Mehrzahl von Mikroprozessorplatinen kann mit Befehlen zum Laden und Ausführen von diskreten aus einer Mehrzahl von definierten Sätzen von Robotersteuerroutinen versehen sein, wie in unterschiedlichen Softwarearchitekturen unterschiedlicher RCUs in den19 –28 gezeigt, derart, dass der definierte Satz von Robotersteuerroutinen unter der Mehrzahl von austauschbar montierbaren Modulen ausgeführt wird. - Die Robotersteuermodule, Systeme und Verfahren, wie sie hier beschrieben werden, sind jedoch allgemein angewendet durch eine einfache Mechanik von einer RCU
238 ,244 ,254 oder262 pro Aktuator unter Verwendung der verfügbaren RCUs238 ,244 ,254 ,262 sodann für Sensoren, Berechnung und Kommunikationen. Zusätzliche RCUs können hinzugefügt werden für zusätzliche Sensoren, Berechnungen oder Kommunikationen ohne Betreiben eines Aktuators. Die RCUs238 ,244 ,254 ,262 können zum Steuern lediglich von Sensoren, Berechnung und/oder Kommunikationen verwendet werden. Dies gilt für jedes Fahrzeug jeder Größe oder Konfiguration, einschließlich kleiner elektrischer Fahrzeuge mit lediglich einem oder zwei Aktuatoren, (d. h., rahmengesteuert) und landwirtschaftlichen oder Baufahrzeugen mit viel mehr (beispielsweise einem Aktuator für jede Steuerung bei einem Fahrzeug mit komplexer Konstruktion). Die RCUs238 ,244 ,254 ,262 sind vernetzt und arbeiten auf dieselbe Weise wie hier diskutiert. - Das illustrative Fahrzeug
300 weist ein Robotersteuersystem mit einer Anzahl von Robotersteuermodulen238 ,244 ,254 ,262 auf, die jeweils in einem montierbaren Gehäuse beinhaltet sind, das verwendet werden kann zum Steuern des Betriebssystems, etwa einem Drosselsystem, einem Lenksystem, einem Bremssystem und einem Schaltsystem. Bei diesem Ausführungsbeispiel sind die Robotersteuermodule238 ,244 ,254 ,262 in Leerräumen in dem Fahrzeug über das Fahrzeug verteilt. Räume können existieren als Fahrgasträume, die nicht verwendet werden in dem Fahrzeug vor der Installation des Robotersteuersystems (wie in den3 –4 gezeigt). Auf diese Weise wird wertvoller Raum für Personen oder Nutzlast nicht von den Elektroniken des Robotersteuersystems beansprucht. Das Robotersteuermodul 1238 ist beispielsweise in dem Maschinenraum302 des Fahrzeugs300 positioniert. Ein Wärmeschild304 kann verwendet werden, um das Robotersteuermodul 1238 und andere Elektroniken306 ,308 vor der Wärme der Maschine zu schützen. Bei einem Ausführungsbeispiel kann das Wärmeschild304 eine Dichtung an seiner oberen Fläche haben, so dass es eine Dichtung mit der oberen Fläche der Schüttmulde bilden kann (nicht gezeigt). - Die Robotersteuermodule
238 ,244 ,254 ,262 kann jeweils drei unterschiedliche Funktionen haben. Beispielsweise kann ein Robotersteuermodul eine Betriebssystemsteuer (beispielsweise ein System zum Betrieb eines Fahrzeugs) und ein anderes Robotersteuermodul kann Überwachungsfunktionen ausführen. Bei einem Ausführungsbeispiel ist jedes Robotersteuermodul dazu in der Lage, jede von unterschiedlichen Funktionen abhängig von der Anordndung in dem Fahrzeug auszuführen. Andere Ausführungsbeispiele desselben oder eines anderen Fahrzeugs kann mehr oder weniger Steuerrobotermodule haben. - Das Robotersteuermodul 2
254 kann an der vorderen Laserscanneranordnung310 positioniert sein. Das Robotersteuermodul 3244 kann auf der rückwärtigen Laserscanneranordnung312 angeordnet sein. Das Robotersteuermodul 4262 kann in der Motorhaube314 des Fahrzeugs angeordnet sein. Die Position der Robotersteuermodule in den Leerräumen, gezeigt in den3 und4 , ist illustrativ und eine Vielzahl von anderen Konfigurationen sind möglich. Das Positionieren und Montieren der Robotersteuermodule nahe der Einrichtungen, an die sie Steuersignale aussenden und von denen sie Steuersignale empfangen, kann die Rauschstörung mit diesen Signalen reduzieren.4 zeigt das Layout verschiedener anderer elektronischer Komponenten des Robotersteuersystems des Fahrzeugs300 nach einem Ausführungsbeispiel der vorliegenden Erfindung. Beispiele solcher anderer Komponenten weisen einen Batterieequalizer30 , eine GPS352 , VCU354 , Kameras358 , einen Kompass360 , Radios362 , Spannungszentrum364 und einen Kontroller366 auf. - Hinderniserkennungs/Hindernisvermeidungssystem
- Wie oben erwähnt, ist das Fahrzeug mit einem Hindernisvermeidungs (ODOA) System versehen, das ausgebildet ist zum Erkennen von Hindernissen außerhalb des Fahrzeugs und zum Initiieren von geeigneten Steueraktionen um diese zu vermeiden. Das ODOA System des Fahrzeugs weist sowohl Hardware – als auch Softwarekomponenten auf und ist ausgebildet, um ausfallsicher zu sein, ohne die Fähigkeit für externe Operatoren zu begrenzen, das Fahrzeug vollständig zu beherrschen, falls dies militärisch notwendig ist. Bei einem solchen Ausführungsbeispiel weist das Fahrzeug die folgenden Komponenten auf: (i) eine vordere Neigungslaserscanneranordnung; (ii) eine rückwärtige Laserscanneranordnung; (iii) eine Robotersteuereinheit unter Verwendung eines Speichers mit einem ausführbaren Code, etwa einer Bereichsschutzanwendung und einer Kontrolle (oder einem Antriebsarbiter) Applikation; und (iv) einer Hinderniskarte. Andere Typen von Scannern, andera als Laser, und Sensoren können ebenfalls in dem System verwendet werden, etwa solche, die in der Lage sind zum Erzeugen einer besonderen Karte oder eines Konus von Bereichsvek toren (beispielsweise Wahrnehmung). Beispiele solcher Sensoren und Scanner schließen LIDAR, Stereovision, Radar und Sonar ein.
- Es wird jetzt auf die
5A –B Bezug genommen. Hier ist ein vorderer Neigungslaserscanner400 nach einem Ausführungsbeispiel der vorliegenden Erfindung gezeigt. Der vordere Neigungslaserscanner400 ist allgemein auf der Frontseite des Fahrzeugs angeordnet und weist einen Laserscanner402 zum Aussenden eines Laserstrahles403 zum Erkennen des Vorhandenseins eines Hindernisses, einen Scannermechanismus404 zum Manipulieren der Position des Laserscanners402 und damit der Richtung des Laserstrahles403 , eine Schutzführung406 zum Verhindern einer Zerstörung des Frontneigungslaserscanners400 auf. Ein Beispiel eines derartigen Laserscanners402 ist ein LMS-291 Laserscanner, der von SICK Minneapolis, MN hergestellt wird. Zusätzlich oder alternativ zu dem Laserscanner402 kann ein LADAR/LIDAR erzeugt werden, der eine Punktwolke oder eine Tiefenkarte erzeugt. Der LADAR/LIDAR kann auch Radar, Steroscope sichten oder andere Sensorfunktionalitäten schaffen, die verwendet werden können zum Erzeugen einer Punktwolke und/oder Tieferkarte. Bei einigen Ausführungsbeispielen kann das LADAR/LIDAR mit dem Laserscanner402 austauschbar sein. - Eine nach vorne gerichtete Neigungslaserscanneranordnung nach einigen Ausführungsbeispielen der vorliegenden Erfindung kann „wahre" oder interpolierte 3D Daten über Hindernisse vor dem Fahrzeug geben und führt diese Daten zu Bordcomputern, etwa einem einzigen Bordcomputer, der mit einer Robotersteuereinheit zur Verarbeitung zugehörig ist. Die nach vorne weisende Laserscannereinheit
400 nickt mit einer 2 Hz Rate, erreicht seinen maximalen Blickwinkel 15 Grad unterhalb der Horizontalen (auf den Erdboden blickend) und erreicht seinen maximalen Blickwinkel von 25 Grad nach oben (in den Himmel blickend). Die Laserscannereinheit400 erzeugt 181 Bereichslesungen pro Abtastung (jede Abtastung schließt in 26 Millisekunden) ab aus einem maximalen Bereich von 50 Metern von 50 Grad rechts (der Steuerbordseite des Fahrzeugs) bis 90 Grad nach links (der Backbordseite des Fahrzeugs). - In dem besonderen in den
5A –B gezeigten Ausführungsbeispiel weist die Schutzführung406 zwei Tragelemente408 ,410 auf, die mit einer Laserscannerbasis412 verbinden. Eine Anzahl von Stützrippen414 ,416 ,418 kann zwischen den beiden Stützelementen408 ,410 vorgesehen sein und ist positioniert zum Schützen des vorderen Neigungslaserscanners408 vor einer Zerstörung und erlaubt es dem Laserscanner402 , Hindernisse zu erkennen unter Verwendung des Laserstrahls403 , wobei keine Hindernisse von dem Laserstrahl403 unentdeckt bleiben. Beispielsweise können die Tragrippen416 ,418 derart positioniert sein, dass der Querschnittsbereich, der innerhalb des winkligen Fensters des Laserstrahls403 begrenzt ist, so dass die Stützrippen416 ,418 die Erkennung von Gegenständen nicht verhindert. Alternativ können die Stützrippen416 ,418 außerhalb des Winkelfensters des Laserstrahls403 angeordnet sein. Zusätzlich können die Stützelemente408 ,410 außerhalb des winkligen Fensters des Laserstrahls403 angeordnet sein, wenn der Laserstrahl in einer neigenden Betriebsweise ist. Alternativ können die Stützelemente408 ,410 derart positioniert sein, dass ein Querschnittsbereich der Stützelemente408 ,410 in dem Winkelfenster des Laserstrahls403 ist. - Ein rückwärtiger Laserscanner kann auf der Rückseite des Fahrzeugs angeordnet sein zum Erkennen von Hindernissen und kann, ähnlich dem Frontlaserscanner, eine Schutzführung aufweisen, um den rückwärtigen Laser daran zu hindern, zerstört zu werden. Die Schutzführung kann eine beliebige Anzahl von Stützrippen oder Stützelementen aufweisen, die positioniert sind, um zu verhindern, dass der rückwärtige Laserscanner zerstört wird und es dem Laserscanner erlaubt, Hindernisse zu erkennen. Der rückwärtige Laserscanner kann dieselbe Ausbildung wie der Frontneigungslaserscanner haben, der in den
5A –B gezeigt ist. Der rückwärtige Laserscanner kann ebenfalls einen Laserscanner aufweisen wie einen LMS-291, der von SICK, Minneapolis, MN hergestellt wird. - Wie in
6 gezeigt, kann der Neigungslaserscanner400 mit einem RCU502 verbunden sein und drei-dimensionale Daten an die RCU502 übertragen. Die RCU502 kann Daten empfangen, die von dem Laserscanner400 übertragen werden und kann mit anderen RCUs und einer Überwachungs RCU durch, beispielsweise, eine Ethernetverbindung504 kommunizieren. Die RCU502 kann weiter einen Motor steuern, der mit dem Laserscanner400 verbunden ist, um die Position des Laserstrahles zu verhindern. Bei einem Ausführungsbeispiel des Laserscanners ist der Motor ein Maxon Motor EC40 mit einem GP52C Getriebe versehen. - Die rückwärtige feste Laserscanneranordnung kann 2D Daten über Hindernisse hinter dem Fahrzeug gewinnen und diese Daten an Bordrechner zur Verarbeitung übermitteln. Die rückwärtige Laserscannereinheit kann in einer festen horizontalen Position montiert sein. Die Laserscannereinheit kann 181 Bereichslesungen pro Abtastung erzeugen (jeder Scan schließt in 26 Millisekunden ab) aus einem maximalen Bereich von 50 Meter von 90 Grad nach rechts bis 90 Grad nach links.
- Die Bereichsführungssoftware kann Unterbrechungen der Hindernisdaten von den Laserscannern erkennen und gibt Ersatzdaten aus, die angeben, ob Hindernisse in jeder Richtung, die abgetastet werden kann („Halbmonde") vorliegen. Dies verhindert, dass das Fahrzeug sich in eine Richtung bewegt, die durch die Bordsoftware wenig zuverlässig als frei von Hindernissen erkannt worden sind.
- Eine Hinderniskarte gibt die Relativposition von Hindernissen bezüglich des Fahrzeugs an und ist im Allgemeinen von einer Robotersteuereinheit in dem Robotersteuersystem über den Eingang, der von den Sensoren empfangen worden ist, etwa dem vorderen und dem rückwärtigen Laserscannern erzeugte. Die Steuersoftware bestimmt die richtige Bahn durch das Hindernisfeld unter Verwendung der Hinderniskarte und befiehlt das Steuersystem geeignet (Steuerung, Drossel, Bremse, Schaltung) um diese Bahn zu erreichen.
- Nach dem Empfangen von sich auf Hindernisse, die gewünschte Richtung, sich bewegende Gegenstände usw. beziehende Informationen kann die Robotersteuereinheit in dem robotisch gesteuerten Fahrzeugaktionen basierend auf diese Information entscheiden. Aktionen können, beispielsweise, eine Änderung der Geschwindigkeit des Fahrzeugs eine Änderung der Fahrzeugrichtung usw. anschließen. Ein Antriebsarbitersystem kann vorgesehen sein, um basierend auf empfangenden und/oder bekannte Information die bevorzugten Aktionen, die das Fahrzeug ausführen soll, zu entscheiden. Der Arbiter verwendet einen Algorithmus zum Bestimmen dieser Aktionen. Insbesondere empfängt der Arbiter eine Information, etwa Bestimmungs- oder Hindernisdaten von Sensoren und erzeugt Sätze von möglichen Aktionen. Beispielsweise können Sätze oder Bahnsätze vorgesehen sein durch einen oder alle liefernden oder projizierenden Komponenten. Projizierte Komponenten erzeugen Aktiionen und können eine Fernbedienungskomponente, „Follow Me" Betriebsinformation, odometrische Wegpunkte und GPS Wegpunkte einschließen. Projizierende Komponenten begrenzend die Aktion und können Hindernisse einschließen, die von den Sensoren erkannt worden sind oder andere Information.
-
7 zeigt einen Betriebsarbiteralgorithmus600 nach einem Ausführungsbeispiel der vorliegenden Erfindung. Wie in7 gezeigt, werden Aktionssätze bei602 derart erzeugt, dass ein erster Satz von möglichen Aktionen604 von einer Fernbedienungsbetriebsart und einem zweiten Satz von möglichen Aktionen606 in einer GPS Wegpunktbetriebsart. Der Arbiter wählt sodann einen Aktionssatz bei608 aus basierend auf dem Prioritätswert, der an dem Datensatz angebracht ist. Der ausgewählte Aktionssatz wird dann bewertet und jedwede Projektoren können auf den Aktionssatz bei610 angewendet werden, beispielsweise das Begrenzen von individueller Aktionen in einem Aktionssatz. Ein Element des Aktionssatzes wird bei612 ausgewählt und kann verwendet werden bei einer Präferenz, die jeder Bahn in dem Satz zugehörig ist. Der Arbiter kann sodann das ausgewählte Element ausgeben614 . - Jeder Aktionssatz oder jeder Bahnsatz kann eine Prioritätsinformation aufweisen, die von der Providerkomponente gesetzt ist und ein Feld von Bahnen, die von der Providerkomponente erzeugt worden ist. Der Aktionssatz kann weiter einen Informationssatz von der Projektorinformation aufweisen, etwa das Vorhandensein und der Ort eines Hindernisses, die die Aktion, die von der Betreiberkomponente gesetzt worden ist, begrenzt. Die Bahnen können einen Geschwindigkeitsbefehl, einen Richtungsbefehl und einen Präferenzwert zwischen 0 und 1 aufweisen, dessen Wert von dem Geschwindigkeitsbefehl und der bekannten Information, die von den Sensoren gewonnen worden ist, beinhalten. Eine Bahn mit einem Präferenzwert von 1,0 kann identifiziert werden als die bevorzugte Aktion, während die Bahnen mit einem Präferenzwert von 1,0 zulässig sein können, jedoch weniger bevorzugte Aktionen sind. Der Antriebsarbiter spielt sodann den Aktionssatz mit der höchsten Priorität aus.
- Providerkomponenten
- Das robotergesteuerte Fahrzeug kann unter unterschiedlichen Betriebsarten arbeiten. Beispielsweise kann das Fahrzeug in einer „Follow Me" Betriebsart arbeiten, einer fernbedienten Weise, einer lernenden Rückspiel-Betriebsweise oder einer GPS Wegpunktbetriebsweise arbeiten.
- Follow Me Betriebsweise: Unter der „Follow Me" Betriebsweise werden ein oder mehrere Gegenstände identifiziert und das robotergesteuerte Fahrzeug wird dazu gesteuert, dem Objekt zu folgen. Die sich bewegende Objektinformation kann verwendet werden zum Erzeugen und Manipulieren des Fahrzeugbewegungsverhaltens. Bei einigen Ausführungsbeispielen der vorliegenden Erfindung kann die Information über das sich bewegende Objekt verwendet werden zum Löschen oder Auslaufenlassen von Datenpunkten, die dem sich bewegenden Objekt zugehörig sind, wenn sie in dem „Heck" sind oder einer vorangehenden Position des Objekts zugehörig sind, um es dem Fahrzeug zu erlauben, sich näher an ein sich bewegendes Objekt zu bewegen, ohne die Datenpunkte zu verbergen, die der vorangehenden Position des Objekts zugehörig sind.
- Wie in
8 gezeigt, bestimmt ein System, ob ein Gegenstand als einem zu folgenden Gegenstand (700 ) identifiziert wird. Wenn kein gesetztes Objekt vorhanden ist, kann das System erkennen (702 ) und auswählen (704 ) das nächste Objekt innerhalb der Detektionszone, das definiert werden kann durch einen Bereich, in dem der Laserstrahl die Fähigkeit hat, Objekte zu detektieren und/oder zu identifizieren. Bei einigen Ausführungsbeispielen kann das System die gegenwärtige Position des sich bewegenden Objekts gewinnen und die Position des nahesten Objekts zu einem gegebenen Punkt und Auswählen dem nahesten Objekt zu folgen. Der „Follow Me" Betriebsweisenalgorithmus kann eine Bibliothek von Befehlen verwenden, um eine Bahn zu dem Objekt zu erzeugen und kann Richtungs- und Geschwindigkeitskomponenten einschließen, die nicht eine vorgewählte zusätzliche Maximalgeschwindigkeit überschreiten und eine Richtung beinhalten zum Stoppen mit einem vorgegebenen Abstand von dem Objekt. - Nachdem das Objekt anfänglich ausgewählt oder aber das Fahrzeug bereits dem Objekt folgt, kann die Position des Fahrzeugs relativ zu der vorherigen Position und der Bewegung des Objekts (
706 ) abgeschätzt werden. Zusätzlich wird das Objekt abgeschätzt oder die erwartete Position wird auch berechnet (708 ). Wenn kein sich bewegendes Objekt in dem abgeschätzten Positionsbereich innerhalb eines vorbestimmten Zeitraums erkannt wird, wird das Fahrzeug nicht länger nach dem sich bewegenden Objekt suchen und wird versuchen, ein anderes sich bewegendes Objekt zu lokalisieren, um diesem unter Verwendung des oben beschriebenen Prozesses (712 ) zu folgen. - Nach dem Erkennen des sich bewegenden Objekts, wird ein Bahnsatz zum Beliefern des Fahrzeugs mit Bewegungsbefehlen (
714 ) berechnet. Die Bahn kann durch Berechnen von Vektoren in einen Bahnsatz aufgeteilt sein, die durch einen vorgegebenen Winkel getrennt sind (beispielsweise um 5 Winkelgradzeichen nach rechts und nach links der Bahn des sich bewegenden Objekts. Zusätzliche Bahnen können zwischen den Vektoren zum Schaffen von zusätzlichen Bahnen oder Bahnsätzen eingeschlossen sein. Jeder Bahn kann eine Präferenz zugeordnet sein (716 ). Beispielsweise kann die Bahn, die in der Mitte des Bahnsatzes angeordnet sein, einem Wert zugeordnet sein, der die höchste Präferenz hat, während die Vektoren, die am weitesten von dem Mittelvektor entfernt sind, einen Präferenzwert haben, denen der am wenigsten bevorzugte Vektor zugeordnet ist. Der Bahnsatz wird sodann an die Betriebsarbiterkomponente als ein Aktionssatz geliefert (718 ). Eine Hinderniskarte kann berechnet werden basierend auf einer Information, die von den Sensoren gewonnen wird, etwa dem vorderen oder dem rückwärtigen Laserstrahl einschließlich dem Vorhandensein und Ort von Hindernissen. Die Hinderniskarte kann geliefert sein an die Betriebsarbiterkomponente an eine Begrenzung der Bahnsätze. Unter der „Follow Me" Betriebsweise können Hindernisvermeidungsinformation, Erkennung oder Antwortverhalten wie hier beschrieben, von dem Robotersteuersystem interpretiert werden, um die Bahnen in dem Bahnsatz zu ändern oder eine Präferenz zwischen den Bahnen zu ändern, um (1) Hindernisse zu vermeiden (2) Bahnen weiter weg von der mittleren Bahn zu bevorzugen, wenn die mittlere Bahn als Hindernisse beinhaltend interpretiert wird, etwa negative Hindernisse einschließlich Löchern oder Neigungsabfällen oder positiven Hindernissen, die eine Struktur oder ein Baum oder das Ausschließen von möglichen zu folgenden Objekten; (3) Ändern oder Verringern der maximalen zulässigen Geschwindigkeit; (4) Ändern oder erhöhen des vorgewählten Bremsweges; und (5) ansonsten das Ändern von Instruktionen, die ausgeführt werden in einer „Follow Me" Betriebsweise, um Hindernissen zu entsprechend. - GPS Wegpunktbetriebsweise: Nach einigen Ausführungsbeispielen der vorliegenden Erfindung wird das Fahrzeug basierend auf einer GPs Wegpunktinformation unter Verwendung eines GPS Bestimmungssystems geleitet. Beispiele eines GPS Bestimmungssystems weist das Navcom SF-2050M auf, das von Navcom Technologies, Torrance, CA erhältlich ist. Beispielsweise wird die GPS Wegpunktinformation kontinuierlich von einer Wegpunktliste upgedated und Bahnsätze werden basierend auf dem nächsten Wegpunkt relativ zu dem gegenwärtigen und/oder dem letzten Wegpunkt entwickelt. Zunächst wird eine gegenwärtiger Wegpunkt entsprechend der Position, an der ein Fahrzeug als angeordnet angenommen wird, berechnet. Eine Headingcontrollerbibliothek erzeugt eine Bahn in Richtung auf die jeweilige Position mit einer Geschwindigkeit und Richtungsinformation, die verhindert, dass das Fahrzeug eine vorgegebene Geschwindigkeit überschreitet, um die gegenwärtige Position zu erreichen. Die Fahrzeugposition wird dann berechnet um zu bestimmen, ob das Fahrzeug innerhalb des Wegpunktradius ist oder ob das Fahrzeug bei der Fahrt eine senkrechte Ebene, die dem bestimmten Wegpunkt zugeordnet ist, passiert hat.
- Ein „nächster" Wegpunkt wird dann bestimmt und eine Bahn wird dann berechnet basierend auf dem gegenwärtigen und dem nächsten Wegpunkt. Basierend auf der Bahninformation wird ein Bahnsatz durch Berechnen von Vektoren mit einem vorgegebenen Abstand von, beispielsweise, 5 Grad erzeugt, wobei die Bahn des sich bewegenden Objekts die Bahn in der Mitte des Satzes zugewiesen ist. Zusätzliche Bahnen können zwischen den erzeugten Bahnen und der Bahn, die einem bevorzugten Wert zugewiesen ist, eingeschlossen sein, wobei weniger bevorzugte Werte den Bahnen zugeordnet sind, die weiter weg von der mittleren Bahn sind.
- Weiter kann ein Verwendet einen vorgegebenen GPS Pfad aufzeichnen und die Information an ein RCU liefern durch Sichern der Information in einem RCU Flashspeicher. Der Verwender kann sodann ein GPS Pfadplaybacksystem initiieren durch Verwenden der Armatursteuereinheit. Der Verwender kann die GPS Information durch anfängliches Aufzeichnen de GPS Höhen- und Längslesungen aufzeichnen, wobei die GPS Information durch entfernt liegender GPS Information komprimiert wird. Der Wegpunktlistenmanager kann Wegpunkte, die als zu folgen ausgewählt worden sind, in einer Schlange anordnen. Bei manchen Ausführungsbeispielen der vorliegenden Erfindung können die Pfadsegmente zwischen den Wegpunkten bestimmt werden und verwendet werden zum Erzeugen eines gekrümmten Weges, dem das Fahrzeug zu folgen hat. Alternativ wird ein Mittelwegtracker zum Erzeugen eines Pfades verwendet, der für konsistente oder sanfte Fahrzeugbewegungen sorgt. Der Bahnsatz wird sodann an den Antriebsarbiter geliefert, der die geeignete Bahn basierend auf dem Spursatz bestimmen wird und eine Information, die sich auf das Vorhandensein und/oder dem Ort von Hindernissen bezieht. Bei einigen alternativen Ausführungsbeispielen werden die Bahnsätze basierend auf den von einem Kompass gewonne nen Daten erzeugt statt einem GPS System und relativen Orten von Gegenständen Destinationspunkten und/oder vorangehenden Positionsdaten. Beispiele von verwendeten Kompasssystemen weisen einen elektronischen Kompass TCM2-20 auf.
- In der „GPS Wegpunkt" Betriebsart können Hindernisvermeidungsinformation, Detektion oder entsprechendes Verhalten wie beschrieben in dem Robotersteuersystem interpretiert werden um: (1) die Bahn in dem Satz, oder Pfad oder Pfadsegmente zu ändern oder Präferenzen zwischen den Bahnen in dem Satz oder Wegpunkten in der Liste zur Vermeidung von Hindernissen zu ändern; (2) Bahnen die weiter entfernt von der mittleren Bahn sind zu bevorzugen, wenn die mittlere Bahn als Hindernisse aufweisen interpretiert wird, etwa negative Hindernisse, einschließlich Löchern oder Neigungsabfällen oder positiven Hindernissen wie eine Struktur oder ein Baum oder für ein Folgen in Betracht kommende Objekte auszuschließen; (3) Ändern oder Verringern der maximalen zulässigen Geschwindigkeit; (4) Ändern der Erhöhung des vorgewählten Bremsabstandes; und (5) ansonsten Ändern von Befehlen, die in der „GPS Wegpunkt" Betriebsart ausgeführt werden unter Berücksichtigung von Hindernissen.
- Fernbedienungsbetriebsart: Bei einigen Ausführungsbeispielen der vorliegenden Erfindung wird der Weg des Fahrzeugs durch eine Fernbedienung bestimmt. Ein Empfänger, der mit dem Fahrzeug verbunden ist, ist dazu eingerichtet, Befehle zu empfangen. Beispielsweise kann die Fernbedienungskomponente eine Aufnahme öffnen, etwa durch Erzeugen eines Kommunikationsendpunkts und Rückgeben einer Dateibeschreibung, mit der der Zugriff zu einer Aufnahme, die einer Aufnahmeadresse zugehörig ist, einschließlich einer Anschlussnummer einer Netzwerkadresse eines lokalen Hosts. Befehle werden von einer Verwendersteuerschnittstelle basierend auf Information, die der Verwenderschnittstelle übertragen worden ist, übertragen, d. h., oder diese zugehörig ist, Daten, die von einer Kamera, die an dem Fahrzeug angeordnet ist, werden über ein Kommunikationslink oder Netzwerk übertragen. Beispiele derartiger Radionetzwerke weist die Verwendung eines 2,4 GHz Netgate Funksystems oder ein Novaroam EH900 900 MHz Radiosystem auf. Das Novaroam EH900 900 MHz System kann kombiniert werden mit einem Netgate 802.22b System zum Schaffen einer überlegenen Kommunikation über relativ kurze und lange Entfernungen. Beispiele solcher Kamerasysteme weisen ein 10/100 Base T Fast Internet Konnektion und eine Sony SNC-CS3N Kamera auf.
- Das Fernbedienungssystem kann einen Befehl empfangen, der entweder eine Null- oder eine Nicht-Null Geschwindigkeitsinformation aufweist. Wenn der Geschwindigkeitsbefehls Null ist, wird eine Befehlsgeschichte konsultiert um zu bestimmen, ob eine vorgegebene Anzahl von früheren Befehlen auch einen Nullgeschwindigkeitsbefehl beinhalten. Wenn der gegenwärtige Bahnsatz auf irgendwelcher Richtungsinformation beruht, die mit dem jeweiligen Befehl zugehörig ist, wird kein Bahnsatz erzeugt. Wenn das Geschwindigkeitskommando nicht-null ist oder eines oder mehrere der vorangehenden Befehle nicht-null Geschwindigkeitsbefehle beinhaltet haben, wird ein Bahnsatz erzeugt. Ein Bahnsatz wird erzeugt durch Berechnen von Vektoren mit einem vorgegebenen Abstand zwischen diesen, beispielsweise 5 Grad, wobei der Bahn des bewegenden Objekts die Bahn in der Mitte des Satzes zugewiesen ist. Weitere Bahnen können zwischen den erzeugten Bahnen eingeschlossen sein und jeder Bahn ist ein Präferenzwert zugeordnet, wobei weniger präferierte Werte den Bahnen zugeordnet sind, die weit von der Mittelbahn entfernt sind. Der Bahnsatz wird sodann an die Antriebsarbiter geliefert, die die geeignete Bahn basierend auf dem Bahnsatz und der Information, die sich auf das Vorhandensein und/oder den Ort von Hindernissen beziehen. Während der „Fernbedienungs" Betriebsart können die Hindernisvermeidungsinformation, die Detektion und der die Antwortverhalten, wie hier beschrieben, von dem Robotersteuersystem interpretiert werden zum: (1) Ändern der Bahnen in dem Satz oder Ändern von Präferenzen unter den Bahnen in dem Satz zum Vermeiden von Hindernissen; (2) Bevorzugen von Bahnen die weiter von der Mittelbahn entfernt sind, wenn die Mittelbahn als Hindernisse beinhaltend interpretiert wird, etwa negative Hindernisse einschließlich Löchern oder Neigungsabfällen, oder positiven Hindernissen, etwa Strukturen oder Bäumen, oder ein Aufschließen des Folgens von möglichen Objekten; (3) Ändern oder Verringern einer maximal zulässigen Geschwindigkeit; (4) Ändern oder erhöhen des vorgewählten Bremsweges; und (5) anderes Ändern von Befehlen, die in der „Fernbedienung" Betriebsweise ausgeführt worden sind, um Hindernisse zu berücksichtigen.
- Teach and Playback Betriebsart: Bei einigen Ausführungsbeispielen der vorliegenden Erfindung kann das Fahrzeug in einer Teach and Playback Betriebsart betrieben werden. Eine Verwenderschnittstelle kann vorgesehen sein als eine Armaturenbrettsteuereinheit, die an dem Fahrzeug angebracht ist oder in einem Fernbetriebssystem eingebracht ist (oder anderen geeigneten Verwenderschnittstellen). Das Teach and Playback System kann an ein Fahrzeug mit einem Befehl zum Aufzeichnen von Bewegungen, Antriebssignalen und anderen sich auf den Pfad beziehenden Informationen liefern, etwa GPS Wegpunkten, Ort von Hindernissen usw., und der aufgezeichneten Information folgen, wenn ein Pfad zurück zu dem Ausgangspunkt gefolgt wird. Beispielsweise wird das Fahrzeug die Geschwindigkeits- und Richtungsinformation speichern und die Information mit besonderen GPS Daten und/oder zeitlichen Informationen korrigieren. Bei einer Rückfahrt ruft das System Daten wieder auf, um das Fahrzeug mit Geschwindigkeits-, Richtungs- oder anderen zugehörigen Informationen zu beliefern, um einem Rückweg zu folgen. Das Fahrzeug kann dazu in der Lage sein, der Playbackbewegungsinformation und Daten entweder vorwärts oder rückwärts folgen. Zusätzlich kann die Datenaufzeichnung wiederholt werden für zusätzliche Fahrten entlang des Pfades. Unter der „Teach and Playback" Betriebsart, der Hindernisvermeidungsinformation, der Erkennung oder die Antwortverläufe, wie sie hier beschrieben worden sind, können von dem Robotersteuersystem interpretiert werden zum: (1) Ändern der Bahn in dem Satz oder Pfaden oder Pfadsegmenten oder Ändern von Präferenzen entlang der Pfade in dem Satz oder Wegpunkten in der Liste zum Vermeiden von Hindernissen; (2) Bevorzugen von Bahnen, die von der Mittelbahn weit entfernt sind, wenn die Mittelbahn als Hindernisse aufweisen interpretiert wird, etwa negative Hindernisse einschließlich Löchern oder geneigten Absenkungen, oder positiven Hindernissen, wie Strukturen oder Bäumen und ein Ausschließen eines möglicherweise zu folgenden Objekts; (3) Ändern einer unteren maximal zulässigen Geschwindigkeit; (4) Ändern oder Erhöhen des vorgewählten Bremsweges; und (5) ein anderes Ändern von Befehlen, die in der „Teach and Playback" Betriebsart ausgeführt worden sind, um Hindernisse zu berücksichtigen.
- Hindernisvermeidung
- Wie oben erwähnt, wird die Hindernisinformation gewonnen von Sensoren mit, beispielsweise, Laserstrahlen, die manipuliert worden sind in nützliche Information und an das Antriebsarbitersystem geliefert worden sind als „Projektions"-Verläufe, um den Satz von Bahnen zu modifizieren, um schließlich das Fahrzeug zur Vermeidung der erkannten Hindernisse zu steuern. Beispielsweise modifiziert das Hindernisvermeidungssystem die Bahnen und/oder Präferenzbewertungen in einer Weise, die mit einem vorbestimmten Satz von Kriterien konsistent sein kann. Diese Kriterien können sich auf Fahrzeugzonen beziehen, wie in
9 gezeigt, die sich auf Gebiete um das Fahrzeug 8 herum und/oder den Ort der erkannten Hindernisse beziehen. Wie in9 gezeigt, können diese Zonen einen Körperpfad802 , einen gefährlichen Pfad804 , einen Vorsichtspfad806 und, abhängig von der Bahn, eine nachlaufende Körperzone808 , eine nachlaufende Gefahrzone810 , eine nachlaufende Vorsichtszone812 und einen führenden Körper814 , eine Gefahr816 und einen Vorsichtsnachlauf818 aufweisen. Die Kriterien können einen Stoppbefehl aufweisen, der an das überwachende RCU gesendet wird, wenn Hindernisse in dem führenden Körper814 erkannt werden, etwa ein Hindernis820 oder eine Gefahrenzone wie ein Hindernis824 . Zusätzlich wird geprüft, ob Hindernisse, etwa ein Hindernis822 , in der nachlaufenden Zone808 oder der nachlaufenden Gefahrenzone804 , etwa ein Hindernis826 , erkannt werden, ein Befehl zum Begrenzen der Fahrzeuggeschwindigkeit auf einen vorgegebenen Wert wird an das RCU ausgesendet und die verfügbaren Bahnen werden begrenzt auf eine vorbestimmte Anzahl, beispielsweise auf einen Gefahrbahnenpräferenzsatz. Zusätzliche Kriterien können für das System vorgesehen sein zum Bestimmen des nahesten Hindernisses in dem Gefahrweg804 , etwa das Hindernis828 relativ zu den Hindernissen830 und832 und zum Begrenzen der Geschwindigkeit auf einen bestimmten Wert, beispielsweise auf weniger als 25% der maximalen Entschleunigungsgeschwindigkeit, Manipulieren des Bahnsat zes auf einen Gefahrpfadpräferenzsatz durch Eliminieren einer vorgegebenen Anzahl von Bahnen und Reduzieren der Bahnpräferenzlevel, die dem Gefahrweg804 oder nahe dem Gefahrweg804 zugehörig sind. Weiter wird, wenn Hindernisse in der vorlaufenden Gefahrzone818 angeordnet sind, etwa ein Hindernis834 , ein Befehl ausgegeben zum Begrenzen der Geschwindigkeit auf einen vorgegebenen Vorsichtsgeschwindigkeitswert. Schließlich wird, wenn Gegenstände in dem Vorsichtsweg806 erkannt werden, etwa das Hindernis836 , ein Befehl vorgesehen zum Begrenzen der Geschwindigkeit auf einen größeren Wert zwischen der vorgegebenen maximalen Vorsichtsgeschwindigkeit und der minimalen Vorsichtsgeschwindigkeit oder 10% über dem maximalen Sicherheitswert und einem Wert, der der maximalen Sicherheitsgeschwindigkeit zugehörig ist, die Vorsichtsgeschwindigkeit kann skaliert sein durch das Verhältnis des Vorsichtspfadspiels auf die Vorsichtszonenbreite und die Präferenz zwischen der Vorsichtsmaximalpräferenz und der Vorsichtsminimalpräferenz durch das Verhältnis des Spielbereichs zu der Vorsichtszonenbreite. Basierend auf der Hindernisinformation und der Bahn, beispielsweise wie oben diskutiert, wird die gesetzte Bahn von dem Antriebsarbiter manipuliert zum Befehlen des Fahrzeugs, in einer Weise fortzuschreiten, um die Hindernisse zu vermeiden. - Hinderniskartenerzeugung
- Das oben beschriebene System bezieht sich auf die Erkennung von Hindernissen, sich bewegenden Objekten und die Entwicklung einer Hinderniskarte. Die Erkennung von Hindernissen kann das Erkennen von Gruppen von Hindernissen einschließen in der Hinderniskarte, die neu sind, Gruppen von Hindernissen, die innerhalb eines zeitlichen Ausschlussintervalls vorliegen und Gruppen von Hindernissen, die kürzlich ausgelaufen sind. Eine Hinderniskarten wird von Datenpunkten und Information entwickelt, die gewonnen worden ist von dem Laserscanner und eine Schnittstelle zum Analysieren möglicher Aktionen durch das Fahrzeug schafft. Die Datenpunkte können zeitlich bestimmt sein zum Beliefern des Detektionssystems mit der Möglichkeit des Klassifizierens von Datenpunkten in neue, gegenwärtige und alte Datenpunkte. Die Hinderniskarte kann weiter eine Information beinhalten wie die seit dem vorangehende Laserstrahl abgetasteten Zeitintervalle zum Erkennen des Vorhandenseins des sich bewegenden Objekten. Wie in
10 gezeigt, werden die sich bewegenden Objekte erkannt durch das Vorhandensein von benachbarten Punkten900 , die von dem Laserscanner gewonnen werden. Jeder Punkt ist zeitlich definiert und in einer Gatterzelle kartiert. Die zeitbestimmten Punkte900 können werden in alte Punkte904 , gegenwärtige Punkte906 und neue Punkte908 eingeteilt. Wie in den11A –B gezeigt, können die detektierten Punkte900 auf einem Raster904 aufgelegt sein, das mit dem Scanfenster902 korreliert. Die Zellen sind in Untersetze von benachbarten Rasterzellen906 aufgeteilt. Jede Gruppe von benachbarten besetzten Rasterzellen906 repräsentieren ein mögliches Objekt. Wenn das mögliche Objekt unterschiedliche neue und alte Punkte beinhaltet, hat sich das mögliche Objekt wahrscheinlich bewegt. Ein Objekt ist wahrscheinlich ortsfest, wenn der alte und der neue Punkt derselbe sind. Jede Gruppe von benachbarten Punkten, die Mitte der neu erkannten benachbarten Gruppe und die ältere erkannte benachbarte Gruppe werden berechnet. Unter Verwendung der Differenzen zwischen den beiden Bitpunkten können, gemeinsam mit der Abtastrate, die Geschwindigkeit des sich bewegenden Objekts, seine Richtung und sein Radius berechnet werden. Das Auswärtssignal dieser Erkennung kann Inhalte von sich bewegenden Objektdaten als auch eine Identifikation, den Mittelpunkt alter Punkte, den Mittelpunkt neuer Punkte, eine Richtung, Geschwindigkeit, Radius und eine Liste von alten Punkten beinhalten. Das sich bewegende Objektverhalten wird verwendet zum Steuern des Fahrzeugs in dem „Follow Me" Betrieb und zum Erlauben der Datenpunkte in dem Gatter auszulaufen durch Erkennen, ob die Punkte dem Ende des sich bewegenden Objekts zugehörig sind (d. h., die vorangehende Position des sich bewegenden Objekts oder Satz von Positionen) und es dem Fahrzeug erlauben, dem sich bewegenden Objekt näher zu folgen. - Die Hinderniskarte nach einem Ausführungsbeispiel der vorliegenden Erfindung erzeugt einen Hindernisreport, der die beste Abschätzung der Hinderniseigenschaften der Hinderniskarte angibt. Für konsistente Hindernisreporte und eine schnelle Bestimmung des nahesten Hindernisses innerhalb eines bestimmten Pfads um das Fahrzeug, wie in
9 gezeigt, kann die Hindernisdichte gewonnen werden in jeder bestimmten Zone um das Fahrzeug. Der Hindernisreport kann daher Hindernisdichten und den Bereich des nahesten Hindernisses in Bezug auf jeden Pfad, der dem Fahrzeug zugeordnet ist, einschließen. Das Hindernisvermeidungssystem wird den Hindernisreport verwenden, um die individuellen Bahnen, die dem Betriebsarbiter vorgeschlagen werden, zu bewerten. - In einigen Ausführungsbeispielen der vorliegenden Erfindung kann ein 2D Sensor, etwa ein vorderer oder hinterer Laserscannermechanismus, als ein 3D Sensor verwendet werden. Die Systemkomponenten integrieren Bereichsdaten, Wickeldaten und Fahrzeuggeschwindigkeitsdaten, um eine Hinderniskarte unter Verwendung von vier Dimensionen von Daten zu erzeugen. Die sich ergebende Karte kann eine genaue Repräsentation eines Hindernisses bei einer relativ hohen Geschwindigkeit sein. Wie in
12 gezeigt, wird eine Hinderniskarte gewonnen durch Aussenden von Laserbereichsdaten1002 , Scannerwinkeldaten1004 , Fahrzeuggeschwindigkeitsdaten1006 , einem Synchronisierungsimpuls1008 und Hindernisdatenpunkten1010 , die von einer ersten Abtastung des Lasers gewonnen worden sind zu einer Hinderniskarte RCU1012 . Die RCU1012 versieht die Daten mit der Zeit und erzeugt den Winkel des Lasers, wenn der Laser eine Abtastung durchführt oder den Neigungswinkel. Die mit einer Zeit versehenen Datenpunkte, die Synchronisationsimpulsdaten und der Neigungswinkel werden an den Überwachungs RCU1014 gesendet, um die Überwachungs RCU mit vier Dimensionen von Daten der Hindernisse zu versorgen, um die Hinderniskarte zu erzeugen. - Ein Ausführungsbeispiel der Verwendung eines 2D Scanners zur Schaffung von 3D Daten schließt einen Laserscanner RCU ein, der Konfigurationsdaten manuell von einem Verwender empfängt über ein Telekommunikationsnetzwerk oder von anderen Komponenten in dem Fahrzeugsteuersystem. Basierend auf der Konfigurationsinformation konfiguriert der Scanner RCU den Betrieb zum Ausgeben von Bereichsdaten
1002 und zum Lesen der Bereichsdaten1002 und das Versehen mit der Zeit. Ein Neigungsbewegungscontroller liest Konfigurationsdaten, empfängt Befehle zum Steuern der Laserneigung und des Abtastver haltens und manipuliert die Abtastparameter in Übereinstimmung mit den Befehlen. Zusätzlich kann der Neigungsbewegungscontroller einen horizontalen Synchronisierungsimpuls von dem Treiber als eine Unterbrechung erhalten und beachtet die Zeit der letzten Unterbrechung. Eine oder mehrere Neigungsbotschaften können von einer Nickbewegungscontrollerplatine empfangen werden und der Nickbewegungscontroller berechnet den Startzeitpunkt der letzten Abtastung basierend auf einem empirisch bestimmten festen Offset von dem horizontalen Synchronisierungsimpuls. Der Controller verwendet dann die Zeit zum Bestimmen des Zeitpunkts der Elevationsdaten. Diese mit einer Zeitangabe versehenen Elevationsdaten werden sodann an einen 3D Kartengenerator gesendet. Der 3D Kartengenerator kann Konfigurationsdaten lesen, aus dem Treiber abtasten und die Elevationsdaten zeitstempeln. Der 3D Kartengenerator berechnet sodann die Neigung des Nickmechanismus an dem Beginn der letzten Bereichsabtastung basierend auf der sinusförmigen Bewegung des Nickens. Jede Abtastung wird sodann mit der berechneten Neigung bei dem Beginn der Abtastung markiert. Der 3D Kartengenerator erzeugt sodann Bereichsdaten, die versehen sind mit der Elevationsinformation an eine Botschaftsschleife zur Verwendung als eine Überwachungs RCU. Weiter erkennt der 3D Kartengenerator ein Verlust an Synchronisation aufgrund, beispielsweise, Fehlern in dem Eingang/Ausgang und resynchronisiert durch Verwerfen von Daten, bis eine Übereinstimmung zwischen den Zeitangaben erreicht werden kann. - Das Hindernisvermeidungssystem, das in manchen Ausführungsbeispielen der Erfindung vorhanden ist, kann das Wandeln von 3D Hindernisinformation in 2D Daten aufweisen, um bei dem Ausrichten des Fahrzeugs zur Vermeidung von Hindernissen zu unterstützen. Wie in
13A dargestellt, weisen Sensordaten, etwa Daten, die von dem vorderen nickenden Laser und dem rückwärtigen Laser gewonnen worden sind, eine relativ große Zahl von 3D Datenpunkte auf, die ein 3D Objekt1050 repräsentieren. Wie in13B gezeigt, sind jedoch nur eine relativ kleine Anzahl von 2D Punkten1052 über manchen Systemen erforderlich, um das Vorhandensein von Hindernissen geeignet zu kartieren. Ausführungsbeispiele der Erfindung erzeugen eine Hinderniskarte, die die 3D Sensordaten in einen Satz von 2D Punkten wandelt, die Hindernisse oder andere Objekte repräsentieren. Wie in14 gezeigt, weist die Wandlung von 3D Daten in 2D Daten das Gewinnen von Sensorpunkten ein, die zeitgestempelt sein können und einen 3D Punktsatz beinhalten und die Ausrichtung des Sensors bezüglich des Fahrzeugs (1100 ). Die zeitgestempelte Geschwindigkeit des Fahrzeugs wird, kontrolliert mit den zeitgestempelten Punkten, zum Erzeugen einer 2D Karte (1102 ) verwendet. Beispielsweise ist, wie in15 gezeigt, wenn die Ausrichtung1152 des Sensors, etwa des Sensors1154 , bekannt ist, die Hindernispunkte1150 kartiert relativ zu der Ausrichtung1152 des Sensors und korreliert mit der jeweiligen Zeitangabe. Sodann werden die Daten verglichen mit vorgegebenen Kriterien (1104 ) und Datenpunkte werden als überflüssig identifiziert, da sie, beispielsweise, „zu weit", „zu hoch", oder „zu tief" sind relativ zu dem Fahrzeug werden erkannt als außerhalb des Kriteriums (1106 ). Datenpunkte, die „zu tief" sind, schließen Datenpunkte nicht ein, die Löcher, Spalten oder andere Tiefen beinhalten können, die als Hindernisse betrachtet werden müssen. Wenn, beispielsweise, eine Diskontinuität von Datenpunkten in einer Abtastung erkannt wird, wie in den16 und17 gezeigt und im Folgenden eingehender diskutiert werden wird, können die Datenabtastungen das Vorhandensein von Löchern oder ähnlichen Hindernissen angeben. Nach dem Vernachlässigen der irrelevanten Datenpunkte, können die Datenpunkte, die in einer 2D Punktwolke korrelieren für einen einzelnen Satz von Datenpunkten (1104 ) verwendet werden. In18 dargestellt, werden Punkte der Bereichsdaten1400 , die nach dem Filtern als „zu weit weg", „zu hoch" und „zu tief, aber kein Loch" gekennzeichnet werden, in 2D kartiert1402 . - Die sich ergebende 2D Punktwolke weist Datenpunkte auf mit Positionsinformation in der Form (x, y) und ist der mit einer Zeitangabe versehenen Information zugehörig. Die Punktwolkendatenpunkte werden weiter gefiltert zum Entfernen unnötiger Datenpunkte (
1110 ). Zum Beispiel können nur Datenpunkte innerhalb von 25 Meter vor dem Fahrzeug mit einer Auflösung von 10 Zeichen vorgesehen sein. Das Punktraster kann einen Index eines Punktfeldes repräsentieren (1112 ). Das Punktfeld hält die Daten an individuellen Punkten, die während einer bestimmten Laserabtastung gewonnen worden sind. Jedes Mal, wenn die Punkte zu dem Raster zugefügt werden, werden Datenpunkte zunächst von dem Raster entfernt. Ähnlich zu dem Raster werden die Punktfelddatenpunkte bei bestimmten Bedingungen gelöscht. Wenn, beispielsweise, der Zeitstempel, der den Daten zugehörig ist, als „zu alt" bestimmt werden, um relevant zu sein, werden die Punktfelddatenpunkte vernachlässigt (1114 ). Weiter wird, wenn der Abstand von dem bestimmten Punkt zu dem Ursprung des Fahrzeugs außerhalb eines vorbestimmten Bereichs liegt, der Punktfelddatenpunkt vernachlässigt (1116 ). Schließlich werden die meisten, wenn nicht alle, Datenpunkte basierend auf diesen Kriterien vernachlässigt. Nachfolgend wird das jeweilige Punktfeld, das die Punkte beinhaltet, die aus den vorigen Sensordaten ausgewählt worden sind, in dem Raster verrechnet (1118 ). Wenn ein Rasterindex bereits einen gespeicherten Punkt hat, werden die Datenpunkte vernachlässigt und der neue Datenpunkt wird in dem bestimmten Indes gespeichert (1120 ). Wenn das Fahrzeug noch aktiv ist, kann ein anderer Laserabtastdatensatz gewonnen werden und der Vorgang beginnt erneut (1122 ). - Wie oben erwähnt, zeigen die
16 –17 eine Diskontinuität während einer Laserabtastung. In16 tastet ein Laserscanner1200 mit einer Laserscannerausrichtung1202 einen Scanbereich1204 ab unter Verwendung, beispielsweise eines Laserstrahls. Ein Laserscanner1200 kann einen Laserstrahl über den Abtastbereich1204 ausrichten in, beispielsweise, einer halbmond- oder kreisförmigen Form. Die Laserstrahlpunkte1206 , die einen Bereich repräsentieren, in dem der Laserstrahl erkannt worden ist, sind, beispielsweise, im Wesentlichen halbkreisförmig ausgerichtet. Der Laserabtaster1200 kann eine Diskontinuität1208 der Laserstrahldatenpunkte unter Verwendung einer Abtastung erkennen. Die Diskontinuität1208 kann durch eine Abnahme des Scanabtastbereichs1205 oder als ein Loch in dem Abtastbereich1204 gebildet sein. -
17 zeigt Diskontinuität1300 unter Verwendung einer Vielzahl von Laserstrahldatenpunkten die erkannt worden sind. Die Datenpunkte können gewonnen werden durch Vektorstrahlen1302 , einen halbmondförmigen oder halbkreisförmigen Laserstrahlabtastung1304 oder durch Erkennen von zwei Datenpunkten1306 mit unterschiedlichen Muster oder erwarteten Eigenschaften wie anderen Datenpunkten. Die Diskontinuität1300 kann dann zum Begrenzen oder einem sonstigen Bestimmen der Fahrzeugaktion verwendet werden. - Allgemeines
- Die vorangehende Beschreibung des Ausführungsbeispiels einschließlich bevorzugter Ausführungsbeispiele, der Erfindung wurde lediglich zum Zweck der Illustration und der Beschreibung präsentiert und soll nicht als die Erfindung einschränken oder begrenzend verstanden werden, auf die hier offenbarten diskreten Ausbildungen. Verschiedene Modifikationen und Adaptionen ergeben sich dem Fachmann, ohne sich von dem Grundgedanken oder Schutzbereich dieser Erfindung zu lösen.
- ZUSAMMENFASSUNG
- Ausführungsbeispiele der Erfindung schaffen Systeme und Verfahren zur Hindernisvermeidung. Bei einigen Ausführungsbeispielen wird ein robotergesteuertes Fahrzeug geschaffen, das dazu in der Lage ist, in einen oder mehreren Betriebsarten zu arbeiten. Beispiele derartiger Betriebsarten weisen Fernbedienung, Wegpunktnavigation, Folgen und einen manuellen Betrieb auf. Das Fahrzeug kann ein Hinderniserkennungs- und -vermeidungssystem beinhalten, das dazu in der Lage ist, mit einem oder mehreren der Fahrzeugbetriebsarten implementiert zu werden. Ein Steuersystem kann zum Betreiben und Steuern des Fahrzeugs in der einen oder den mehreren Betriebsarten vorgesehen sein. Das Steuersystem kann eine Robotersteuereinheit und eine Fahrzeugsteuereinheit aufweisen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - US 60/729445 [0001]
- - US 60/729388 [0001]
- - US 60/780389 [0001]
- - US 60/838704 [0001]
- Zitierte Nicht-Patentliteratur
-
- - www.deere.com [0086]
Claims (33)
- Ein robotergesteuertes Fahrzeug mit: einer Robotersteuereinheit mit einer Steueranwendung; einem Sensor zum Erkennen von Objektdaten, die erkannte Hindernisse oder Objekte repräsentieren, die außerhalb des Roboterfahrzeugs erkannt worden sind, und zum Übertragen der Objektdaten an die Robotersteuereinheit; wobei die Robotersteuereinheit eine Karte basierend auf den Objektdaten erzeugt, die Karte Kartierungsdaten aufweist und die Kartierungsdaten Positionsdaten der erkannten Hindernisse oder Objekte aufweist; und wobei die Steueranwendungseinheit basierend wenigstens teilweise auf den Kartierungsdaten Fahrzeugaktionen bestimmt und einen Steuerbefehl an eine Fahrzeugsteuereinheit ausgibt, der die Fahrzeugaktionen repräsentiert.
- Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Fahrzeugaktionen wenigstens die Geschwindigkeit des Fahrzeugs oder die Richtung des Fahrzeugs beinhalten.
- Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei der Sensor ein Laserscanner ist.
- Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Robotersteuereinheit einen Prozessor und einen Speicher mit einem ausführbaren Code aufweist, wobei der ausführbare Code einen Betriebsarbiter beinhaltet, der zweidimensionale Kartierungsdaten und Fahrzeugbestimmungsdaten empfängt und einen Satz von Fahrzeugaktionen basierend wenigstens teilweise auf Kartierungsdaten und den Fahrzeugbestimmungsdaten erzeugt.
- Das robotergesteuerte Fahrzeug nach Anspruch 4, wobei der Satz von Fahrzeugaktionen Providerkomponenten aufweist, die Fahrzeugaktionen und Projektorkomponenten erzeugen, die die Fahrzeugaktionen begrenzen.
- Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Providerkomponenten wenigstens eine Fernbedienungskomponente, eine „Follow Me"-Betriebsartinformation, Odometerwegpunkte und GPS-Wegpunkte beinhalten, und wobei die Projektorkomponenten Kartierungsdaten aufweisen.
- Das robotergesteuerte Fahrzeug nach Anspruch 1, weiter mit einer Fahrzeugsteuereinheit, die Fahrzeugaktionen von der Robotersteuereinheit empfängt und Steuersignale an einen Fahrzeugaktuator ausgibt.
- Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Robotersteuereinheit Steuersignale an einen Fahrzeugaktuator ausgibt.
- Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei die Objektdaten dreidimensionale Daten sind und die Kartierungsdaten zweidimensionale Daten sind.
- Das robotergesteuerte Fahrzeug nach Anspruch 1, wobei der Sensor eine Laserscanneranordnung ist, die angepasst ist zum Verbinden mit einem Roboterfahrzeug, wobei die Laserscanneranordnung aufweist: einen Laserscanner zum Aussenden eines Laserstrahls zum Erkennen des Vorhandenseins eines Hindernisses; einen Scannermechanismus zum Manipulieren der Position des Laserscanners; und einen Schutz zum Schützen des Laserscanners vor einer Beschädigung und zum Ermöglichen eines Erkennens des Vorhandenseins eines Hindernisses durch den Laserstrahl, wobei der Schutz aufweist: eine Basis zum Verbinden der Laserscanneranordnung mit dem Roboterfahrzeug; wenigstens zwei Stützelemente, die mit der Basis verbunden sind; und eine Mehrzahl von Stützrippen, die mit den wenigstens zwei Stützelementen verbunden sind.
- Das robotergesteuerte Fahrzeug nach Anspruch 10, wobei die Mehrzahl von Stützrippen außerhalb eines Winkelfensters des Laserstrahls positioniert ist.
- Das robotergesteuerte Fahrzeug nach Anspruch 10, wobei die Mehrzahl von Stützrippen einen ersten Querschnittsbereich und einen zweiten Querschnittsbereich haben, der größer als der erste Querschnittsbereich ist; und wobei die Mehrzahl von Stützrippen derart positioniert ist, dass der erste Querschnittsbereich aus der Mehrzahl von Stützrippen ein Winkelfenster des Laserstrahls ist.
- Ein Verfahren zum Veranlassen eines Roboterfahrzeugs, einem Objekt zu folgen, wobei das Verfahren aufweist: Identifizieren eines Objekts, dem das Roboterfahrzeug zu folgen hat; Abschätzen einer Roboterfahrzeugposition relativ zu einer vorgegebenen Position und einer Bewegung des Objekts; Abschätzen einer Bereichsposition des Objekts; Empfangen einer Position des Objekts; Bestimmen, ob das Objekt in der abgeschätzten Bereichsposition ist; Berechnen eines Bahnsatzes basierend teilweise auf der Objektposition, wobei der Bahnsatz eine Mehrzahl von Bahnen aufweist; Zuordnen eines Präferenzwerts zu jeder der Bahnen; und Schaffen eines Bahnsatzes für den Betriebsarbiter.
- Das Verfahren nach Anspruch 13, wobei das Identifizieren eines Objekts, dem das Roboterfahrzeug zu folgen hat, aufweist: Empfangen einer Identifikation eines zu folgenden Objekts, wobei die Identifikation den Objektort beinhaltet, und Erkennen des zu folgenden Objekts.
- Das Verfahren nach Anspruch 13, wobei das Identifizieren eines Objekts, dem das Roboterfahrzeug zu folgen hat, aufweist: Empfangen von Daten von einem Laserscanner, wobei die Daten eine Identifikation einer Mehrzahl von Objekten innerhalb einer Detektionszone aufweisen; und Auswählen des nahesten identifizierten Objekts als zu folgendem Objekt.
- Das Verfahren nach Anspruch 13, wobei der Bahnsatz eine Bahn aufweist mit einem Mittelvektor und einer Mehrzahl von Bahnen, die einen Bahnvektor haben, wobei der Mittelvektor und der Bahnvektor für jede Bahn voneinander um einen vorgegebenen Winkel beabstandet sind.
- Das Verfahren nach Anspruch 16, wobei das Zuordnen eines Präferenzwerts für jede der Bahnen aufweist: Zuordnen eines bevorzugten Werts für die Bahn, die den Mittelvektor hat; und Zuordnen wenigstens eines bevorzugten Werts für die Bahn, die den Bahnvektor hat, der am weitesten von dem Mittelvektor entfernt ist.
- Das Verfahren nach Anspruch 13, weiter mit: Empfangen von Hindernisdaten, wobei die Hindernisdaten den Ort der Hindernisse beinhalten; Liefern der Hindernisdaten an den Betriebsarbiter; und Auswählen einer Bahn basierend wenigstens teilweise auf den Hindernisdaten.
- Ein Verfahren zum Steuern eines Robotersteuerfahrzeugs unter Verwendung einer Hinderniskarte, mit: Gewinnen einer Mehrzahl von Punkten, wobei jeder Punkt wenigstens einen Teil eines Hindernisses und eine Position des Hindernisses zu einem bestimmten Zeitpunkt repräsentiert; Zuordnen einer Zeitangabe zu jedem Punkt; Kartieren der Punkte zu einer Zelle, wobei die Zelle in Raster partitioniert ist; Separieren der Mehrzahl von Punkten in alte, gegenwärtige und neue Punkte basierend wenigstens teilweise auf den zugehörigen Zeitangaben; Bestimmen der Mitte wenigstens eines der alten Punkte und der gegenwärtigen Punkte; Bestimmen der Mitte der neuen Punkte; Gewinnen einer Positionsdifferenz zwischen der Mitte der neuen Punkte und der Mitte der wenigstens einen der alten Punkte und der gegenwärtigen Punkte; Bestimmen einer Geschwindigkeit eines Objekts basierend wenigstens teilweise auf der Positionsdifferenz; und Verwenden der Objektgeschwindigkeit zum Steuern des Roboterfahrzeugs.
- Das Verfahren nach Anspruch 19, weiter mit: Empfangen einer Abtastrate, die dem Gewinnen der Mehrzahl von Punkten zugehörig ist; Bestimmen der Richtung und des Radius des Objekts basierend wenigstens teilweise auf der Positionsdifferenz und der Abtastrate; und Verwenden der Richtung und des Radius zum Steuern des Roboterfahrzeugs.
- Das Verfahren nach Anspruch 19, weiter mit: Erzeugen eines Bahnsatzes, der eine Mehrzahl von Bahnen beinhaltet, wobei jede Bahn Befehle für die Roboterfahrzeugbewegung aufweist; Erzeugen eines Hindernisberichts mit Hinderniseigenschaften, wobei der Hindernisbericht eine Dichte der Objekte, die einem Roboterfahrzeugzeug zugehörig sind, umfasst; und Verwenden des Hindernisberichts zum Zuordnen einer Präferenz zu jeder Bahn.
- Ein Verfahren zum Erzeugen einer dreidimensionalen Hinderniskarte zur Verwendung in einem Robotersteuerfahrzeug, mit: Verwenden eines Laserscanners zum Ausführen einer ersten Abtastung eines Abtastbereichs; Gewinnen von zweidimensionalen Hindernisdatenpunkten, die Hindernisse repräsentieren, die in dem Abtastbereich angeordnet sind; Zuordnen von Abtastdaten zu den Hindernisdatenpunkten, wobei die Abtastdaten wenigstens Abtastbereichsdaten, die den Abtastbereich repräsentieren, Scannerwinkeldaten, die den Winkel des Laserscanners repräsentieren, Fahrzeuggeschwindigkeitsdaten oder einen Laserscannersychronisationsimpuls beinhalten; Senden der Abtastdaten- und Hindernisdatenpunkte an eine Robotersteuereinheit; Versehen der Abtastdatenpunkte mit Zeitangaben; und Erzeugen einer dreidimensionalen Hinderniskarte basierend wenigstens teilweise auf den mit einer Zeitangabe versehenen Hindernisdatenpunkten und Abtastdaten.
- Das Verfahren nach Anspruch 22, wobei das Aussenden der Abtastdaten und der Hindernisdatenpunkte an eine Robotersteuereinheit das Aussenden von Abtastdaten und Hindernisdatenpunkten an eine Hinderniskarte-Robotersteuereinheit aufweist; und wobei die Hinderniskarte-Robotersteuereinheit die Hindernisdatenpunkte mit Zeitangaben versieht.
- Das Verfahren nach Anspruch 23, weiter mit: Schaffen einer Überwachungs-Robotersteuereinheit zum Erzeugen der Hinderniskarte.
- Das Verfahren nach Anspruch 22, wobei die Hinderniskarte verwendet wird zum Steuern des robotergesteuerten Fahrzeugs.
- Ein Verfahren zum Wandeln dreidimensionaler Hindernisdaten in zweidimensionale Hindernisdaten zum Steuern eines Roboterfahrzeugs, mit: Gewinnen einer Mehrzahl von dreidimensionalen mit Zeitangaben versehenen Hindernisdaten von einem Laserscanner, wobei die Hindernisdaten den Ort eines Hindernisses repräsentieren; Empfangen von mit einer Zeitangabe versehenen Geschwindigkeitsdaten des Roboterfahrzeugs; Vergleichen der Hindernisdaten zum Vorbestimmen von Kriterien zum Trennen der Hindernisdaten in relevante Hindernisdaten und irrelevante Hindernisdaten, wobei die irrelevanten Hindernisdaten außerhalb der vorbestimmten Kriterien liegen; Vernachlässigen der irrelevanten Hindernisdaten; Korrelieren der relevanten Hindernisdaten mit einer zweidimensionalen Punktwolke, die einen Index von Punktfeldern repräsentiert; und Erzeugen einer zweidimensionalen Hinderniskarte basierend wenigstens teilweise auf dem Punktfeld.
- Das Verfahren nach Anspruch 26, weiter mit: Vernachlässigen von Hindernisdaten mit Zeitangaben, die älter sind als ein vorgegebener Schwellenwert.
- Das Verfahren nach Anspruch 26, weiter mit: Filtern der Punktwolke zum Entfernen relevanter Hindernisdaten mit einer Position jenseits einer vorgegebenen Entfernung von dem robotergesteuerten Fahrzeug; und Überschreiben von Hinderniskartendaten mit einer Zeitangabe, die außerhalb eines vorgegebenen Schwellenwerts ist mit zusätzlichen Hinderniskartendaten.
- Ein Roboterfahrzeug mit: einer vorderen Sensoranordnung zum Ausführen einer Abtastung des vorne gelegenen Bereichs zum Gewinnen von vorderen Daten, die Hindernisse oder Objekte repräsentieren, die wenigstens vor dem Fahrzeug liegen; einer hinteren Sensoranordnung zum Ausführen einer rückwärtigen Bereichsabtastung zum Gewinnen von rückwärtigen Daten, die Hindernisse oder Objekte, die wenigstens teilweise hinter dem Fahrzeug liegen, repräsentieren; und einer Robotersteuereinheit zum Empfangen der vorderen und rückwärtigen Daten und Erzeugen einer Hinderniskarte basierend auf vorderen und rückwärtigen Daten, wobei die Robotersteuereinheit aufweist: die Hinderniskarte; eine Bereichsschutzanwendung zum Erkennen von Unterbrechungen in den vorderen und rückwärtigen Daten und Ersetzen, basierend wenigstens teilweise auf den Unterbrechungen, von Daten, die das Vorhandensein von Hindernissen in dem vorderen und rückwärtigen Abtastbereich angeben; und eine Steueranwendung zum Bestimmen einer Bahn basierend wenigstens teilweise auf der Hinderniskarte und Ausgeben von Steuerbefehlen an eine Fahrzeugsteuereinheit basierend wenigstens teilweise auf der Bahn.
- Das Roboterfahrzeug nach Anspruch 29, wobei die vordere Sensoranordnung wenigstens einen Scanner aufweist.
- Das Roboterfahrzeug nach Anspruch 29, wobei die rückwärtige Sensoranordnung einen Laserscanner aufweist.
- Das Roboterfahrzeug nach Anspruch 29, wobei das Roboterfahrzeug angepasst ist zum Betrieb in einer Betriebsart, wobei die Betriebsart wenigstens einen GPS-Wegpunkt, eine Fernbedienung, ein „Follow Me" und ein teach und playback aufweist.
- Das Roboterfahrzeug nach Anspruch 32, wobei die Robotersteuereinheit eingerichtet ist zum Ändern einer robotergesteuerten Fahrzeuggeschwindigkeit und -richtung, wie sie angegeben ist durch die Betriebsart basierend auf der Hinderniskarte.
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US72944505P | 2005-10-21 | 2005-10-21 | |
US72938805P | 2005-10-21 | 2005-10-21 | |
US60/729,445 | 2005-10-21 | ||
US60/729,388 | 2005-10-21 | ||
US78038906P | 2006-03-08 | 2006-03-08 | |
US60/780,389 | 2006-03-08 | ||
US83870406P | 2006-08-18 | 2006-08-18 | |
US60/838,704 | 2006-08-18 | ||
PCT/US2006/041227 WO2007048029A2 (en) | 2005-10-21 | 2006-10-20 | Systems and methods for obstacle avoidance |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112006003007T5 true DE112006003007T5 (de) | 2008-10-16 |
DE112006003007B4 DE112006003007B4 (de) | 2021-09-02 |
Family
ID=37735001
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112006003044T Pending DE112006003044T5 (de) | 2005-10-21 | 2006-10-20 | Vielseitiges Robotersteuermodul |
DE112006002894.4T Active DE112006002894B4 (de) | 2005-10-21 | 2006-10-20 | Vernetztes Vielzweck-Roboterfahrzeug |
DE112006003007.8T Active DE112006003007B4 (de) | 2005-10-21 | 2006-10-20 | Systeme und Verfahren zum Vermeiden von Hindernissen |
DE112006002892.8T Active DE112006002892B4 (de) | 2005-10-21 | 2006-10-20 | Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112006003044T Pending DE112006003044T5 (de) | 2005-10-21 | 2006-10-20 | Vielseitiges Robotersteuermodul |
DE112006002894.4T Active DE112006002894B4 (de) | 2005-10-21 | 2006-10-20 | Vernetztes Vielzweck-Roboterfahrzeug |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112006002892.8T Active DE112006002892B4 (de) | 2005-10-21 | 2006-10-20 | Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs |
Country Status (6)
Country | Link |
---|---|
US (8) | US7894951B2 (de) |
AU (4) | AU2006304838B2 (de) |
DE (4) | DE112006003044T5 (de) |
GB (1) | GB2445507B (de) |
IL (1) | IL191001A (de) |
WO (4) | WO2007048003A2 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210209367A1 (en) * | 2018-05-22 | 2021-07-08 | Starship Technologies Oü | Method and system for analyzing robot surroundings |
EP2622955B2 (de) † | 2012-01-31 | 2021-08-18 | Deere & Company | Landwirtschaftliche Maschine mit einem System zur selbsttätigen Einstellung eines Bearbeitungsparameters und zugehöriges Verfahren |
Families Citing this family (785)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7510038B2 (en) * | 2003-06-11 | 2009-03-31 | Delphi Technologies, Inc. | Steering system with lane keeping integration |
DE102005008714A1 (de) * | 2005-02-25 | 2006-09-07 | Robert Bosch Gmbh | Verfahren und System zur Bereitstellung von Sensor-Daten |
FR2891600B1 (fr) * | 2005-10-05 | 2009-03-27 | Bosch Gmbh Robert | Procede de reglage d'un frein de stationnemnt automatique. |
DE112006003044T5 (de) * | 2005-10-21 | 2008-10-23 | Deere & Company, Moline | Vielseitiges Robotersteuermodul |
US10331136B2 (en) | 2006-02-27 | 2019-06-25 | Perrone Robotics, Inc. | General purpose robotics operating system with unmanned and autonomous vehicle extensions |
US8050863B2 (en) | 2006-03-16 | 2011-11-01 | Gray & Company, Inc. | Navigation and control system for autonomous vehicles |
US7703020B2 (en) * | 2006-03-31 | 2010-04-20 | General Electric Company | Medical diagnostic system interface |
US8108092B2 (en) | 2006-07-14 | 2012-01-31 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
US8326469B2 (en) * | 2006-07-14 | 2012-12-04 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
DE102006031580A1 (de) | 2006-07-03 | 2008-01-17 | Faro Technologies, Inc., Lake Mary | Verfahren und Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs |
US8073564B2 (en) * | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
US7801644B2 (en) | 2006-07-05 | 2010-09-21 | Battelle Energy Alliance, Llc | Generic robot architecture |
US8271132B2 (en) * | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
US8965578B2 (en) * | 2006-07-05 | 2015-02-24 | Battelle Energy Alliance, Llc | Real time explosive hazard information sensing, processing, and communication for autonomous operation |
US8355818B2 (en) * | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
US7974738B2 (en) | 2006-07-05 | 2011-07-05 | Battelle Energy Alliance, Llc | Robotics virtual rail system and method |
US8843244B2 (en) | 2006-10-06 | 2014-09-23 | Irobot Corporation | Autonomous behaviors for a remove vehicle |
US9404749B2 (en) * | 2006-08-23 | 2016-08-02 | Leica Geosystems Ag | Control unit for off-road vehicles including housing configured to fit within pre-existing cavity of off-road-vehicle cab |
US8983680B2 (en) * | 2006-08-24 | 2015-03-17 | Kairos Autonmi, Inc. | Unmanned vehicle retrofitting system |
US8051936B1 (en) * | 2006-08-30 | 2011-11-08 | The United States Of America As Represented By The Secretary Of The Navy | Human-portable remote control driving system |
US7600593B2 (en) * | 2007-01-05 | 2009-10-13 | Irobot Corporation | Robotic vehicle with dynamic range actuators |
EP2070076A4 (de) * | 2006-10-06 | 2012-11-21 | Irobot Corp | Autonomes verhalten für ein fernsteuerfahrzeug |
US20100179715A1 (en) * | 2006-12-11 | 2010-07-15 | Bae Systems Plc | Controlling an autonomous vehicle system |
US8768558B2 (en) | 2007-01-05 | 2014-07-01 | Agjunction Llc | Optical tracking vehicle control system and method |
US7835832B2 (en) * | 2007-01-05 | 2010-11-16 | Hemisphere Gps Llc | Vehicle control system |
USRE48527E1 (en) | 2007-01-05 | 2021-04-20 | Agjunction Llc | Optical tracking vehicle control system and method |
EP1967931A3 (de) * | 2007-03-06 | 2013-10-30 | Yamaha Hatsudoki Kabushiki Kaisha | Fahrzeug |
US10157422B2 (en) | 2007-05-10 | 2018-12-18 | Allstate Insurance Company | Road segment safety rating |
US8606512B1 (en) | 2007-05-10 | 2013-12-10 | Allstate Insurance Company | Route risk mitigation |
US10096038B2 (en) | 2007-05-10 | 2018-10-09 | Allstate Insurance Company | Road segment safety rating system |
US9932033B2 (en) | 2007-05-10 | 2018-04-03 | Allstate Insurance Company | Route risk mitigation |
US8255092B2 (en) * | 2007-05-14 | 2012-08-28 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
EP2147386B1 (de) * | 2007-05-14 | 2021-06-09 | FLIR Detection, Inc. | Autonomes verhalten für ein fernsteuerfahrzeug |
US8918245B2 (en) * | 2007-06-05 | 2014-12-23 | Snap-On Incorporated | Methods and systems for providing open access to vehicle data |
DE202007008557U1 (de) * | 2007-06-19 | 2008-10-30 | Liebherr-Werk Bischofshofen Ges.M.B.H. | System zum automatischen Bewegen von Material |
DE102007043534A1 (de) * | 2007-09-12 | 2009-03-19 | Robert Bosch Gmbh | Anordnung zum Erfassen einer Umgebung |
WO2009038772A2 (en) | 2007-09-20 | 2009-03-26 | Evolution Robotics | Transferable intelligent control device |
US7979174B2 (en) * | 2007-09-28 | 2011-07-12 | Honeywell International Inc. | Automatic planning and regulation of the speed of autonomous vehicles |
US20090088916A1 (en) * | 2007-09-28 | 2009-04-02 | Honeywell International Inc. | Method and system for automatic path planning and obstacle/collision avoidance of autonomous vehicles |
FR2926051B1 (fr) * | 2008-01-03 | 2010-05-21 | Rise Ba | Dispositif modulaire de pilotage pour un chariot automoteur |
US8078399B2 (en) * | 2008-03-10 | 2011-12-13 | Honeywell International Inc. | Method and device for three-dimensional path planning to avoid obstacles using multiple planes |
US8175848B2 (en) * | 2008-03-21 | 2012-05-08 | Rochester Institute Of Technology | Data processing systems and methods |
US20090259399A1 (en) * | 2008-04-15 | 2009-10-15 | Caterpillar Inc. | Obstacle detection method and system |
US8374743B2 (en) | 2008-05-16 | 2013-02-12 | GM Global Technology Operations LLC | Method and apparatus for driver control of a limited-ability autonomous vehicle |
DE102008027282A1 (de) * | 2008-06-06 | 2009-12-10 | Claas Industrietechnik Gmbh | Landwirtschaftliches Fahrzeug und Betriebsverfahren dafür |
US8326954B2 (en) * | 2008-07-23 | 2012-12-04 | Caterpillar Inc. | System and method for synchronizing configurations in a controller network |
US20100023185A1 (en) * | 2008-07-28 | 2010-01-28 | Torc Technologies, Llc | Devices and methods for waypoint target generation and mission spooling for mobile ground robots |
US8229618B2 (en) * | 2008-09-11 | 2012-07-24 | Deere & Company | Leader-follower fully autonomous vehicle with operator on side |
US8989972B2 (en) | 2008-09-11 | 2015-03-24 | Deere & Company | Leader-follower fully-autonomous vehicle with operator on side |
US8478493B2 (en) * | 2008-09-11 | 2013-07-02 | Deere & Company | High integrity perception program |
US20100063652A1 (en) * | 2008-09-11 | 2010-03-11 | Noel Wayne Anderson | Garment for Use Near Autonomous Machines |
US8224500B2 (en) | 2008-09-11 | 2012-07-17 | Deere & Company | Distributed knowledge base program for vehicular localization and work-site management |
US9235214B2 (en) * | 2008-09-11 | 2016-01-12 | Deere & Company | Distributed knowledge base method for vehicular localization and work-site management |
US8195342B2 (en) * | 2008-09-11 | 2012-06-05 | Deere & Company | Distributed knowledge base for vehicular localization and work-site management |
US8195358B2 (en) | 2008-09-11 | 2012-06-05 | Deere & Company | Multi-vehicle high integrity perception |
US8818567B2 (en) * | 2008-09-11 | 2014-08-26 | Deere & Company | High integrity perception for machine localization and safeguarding |
US9026315B2 (en) | 2010-10-13 | 2015-05-05 | Deere & Company | Apparatus for machine coordination which maintains line-of-site contact |
US8392065B2 (en) * | 2008-09-11 | 2013-03-05 | Deere & Company | Leader-follower semi-autonomous vehicle with operator on side |
US9188980B2 (en) * | 2008-09-11 | 2015-11-17 | Deere & Company | Vehicle with high integrity perception system |
US8121749B1 (en) | 2008-09-25 | 2012-02-21 | Honeywell International Inc. | System for integrating dynamically observed and static information for route planning in a graph based planner |
US8437901B2 (en) * | 2008-10-15 | 2013-05-07 | Deere & Company | High integrity coordination for multiple off-road vehicles |
US8639408B2 (en) * | 2008-10-15 | 2014-01-28 | Deere & Company | High integrity coordination system for multiple off-road vehicles |
US8930058B1 (en) * | 2008-10-20 | 2015-01-06 | The United States Of America As Represented By The Secretary Of The Navy | System and method for controlling a vehicle traveling along a path |
US8126642B2 (en) | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
US20100155156A1 (en) * | 2008-11-04 | 2010-06-24 | Robotic Technology Inc. | Energetically autonomous tactical robot and associated methodology of operation |
US8237389B2 (en) * | 2008-11-12 | 2012-08-07 | Irobot Corporation | Multi mode safety control module |
US8170770B2 (en) * | 2008-11-18 | 2012-05-01 | Bendix Commercial Vehicle Systems Llc | Adaptive cruise control braking with deceleration monitoring |
DE102008062994B4 (de) * | 2008-12-23 | 2017-12-28 | Ipetronik Gmbh & Co. Kg | Messanordnung |
DE102008064896B3 (de) | 2008-12-23 | 2018-08-30 | Ipetronik Gmbh & Co. Kg | Messanordnung |
DE102009010465B3 (de) * | 2009-02-13 | 2010-05-27 | Faro Technologies, Inc., Lake Mary | Laserscanner |
US8386090B1 (en) | 2009-02-13 | 2013-02-26 | Brinly-Hardy Company | System and method for wireless remote operation of an accessory associated with a vehicle |
US20100217462A1 (en) * | 2009-02-23 | 2010-08-26 | Glenn Robert Shaffer | Operating system and method for controlling a powered vehicle |
US8295998B2 (en) * | 2009-05-11 | 2012-10-23 | General Electric Company | System, method, and computer software code for distributing and managing data for use by a plurality of subsystems on a locomotive |
KR101540797B1 (ko) * | 2009-03-12 | 2015-07-30 | 삼성전자 주식회사 | 무선 통신 기기의 연결 방법 및 이를 이용한 무선 통신 기기 |
US9551575B2 (en) | 2009-03-25 | 2017-01-24 | Faro Technologies, Inc. | Laser scanner having a multi-color light source and real-time color receiver |
DE102009015920B4 (de) | 2009-03-25 | 2014-11-20 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US9164508B1 (en) | 2009-04-16 | 2015-10-20 | Kairos Autonomi | Unmanned vehicle retrofitting system |
US20100286845A1 (en) * | 2009-05-11 | 2010-11-11 | Andrew Karl Wilhelm Rekow | Fail-safe system for autonomous vehicle |
US8564657B2 (en) * | 2009-05-29 | 2013-10-22 | Honda Research Institute Europe Gmbh | Object motion detection system based on combining 3D warping techniques and a proper object motion detection |
DE102009035337A1 (de) | 2009-07-22 | 2011-01-27 | Faro Technologies, Inc., Lake Mary | Verfahren zum optischen Abtasten und Vermessen eines Objekts |
CA2754159C (en) * | 2009-08-11 | 2012-05-15 | Certusview Technologies, Llc | Systems and methods for complex event processing of vehicle-related information |
US8396597B2 (en) * | 2009-08-18 | 2013-03-12 | Deere & Company | Distributed robotic guidance |
US20110046836A1 (en) * | 2009-08-18 | 2011-02-24 | Noel Wayne Anderson | Modular and scalable positioning and navigation system |
EP2296071A1 (de) * | 2009-08-18 | 2011-03-16 | Deere & Company | Modulares und skalierbares Positionierungs- und Navigationssystem |
US20110046784A1 (en) * | 2009-08-18 | 2011-02-24 | Noel Wayne Anderson | Asymmetric stereo vision system |
US9272724B2 (en) * | 2009-09-08 | 2016-03-01 | Golomb Mercantile Company Llc | Integrated vehicle control system and apparatus |
US8160728B2 (en) * | 2009-09-14 | 2012-04-17 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Methods of determining complete sensor requirements for autonomous mobility |
US8260460B2 (en) * | 2009-09-22 | 2012-09-04 | GM Global Technology Operations LLC | Interactive robot control system and method of use |
US8369992B2 (en) | 2009-09-22 | 2013-02-05 | GM Global Technology Operations LLC | Embedded diagnostic, prognostic, and health management system and method for a humanoid robot |
DE102009048954A1 (de) | 2009-10-10 | 2011-04-14 | Daimler Ag | Verfahren und Vorrichtung zum automatischen Betreiben eines Fahrzeugs in einem keine Nutzeraktion erfordernden autonomen Fahrbetrieb |
DE102009055988B3 (de) | 2009-11-20 | 2011-03-17 | Faro Technologies, Inc., Lake Mary | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
DE102009057101A1 (de) | 2009-11-20 | 2011-05-26 | Faro Technologies, Inc., Lake Mary | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US9210288B2 (en) | 2009-11-20 | 2015-12-08 | Faro Technologies, Inc. | Three-dimensional scanner with dichroic beam splitters to capture a variety of signals |
DE102009055989B4 (de) | 2009-11-20 | 2017-02-16 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US9529083B2 (en) | 2009-11-20 | 2016-12-27 | Faro Technologies, Inc. | Three-dimensional scanner with enhanced spectroscopic energy detector |
US9113023B2 (en) | 2009-11-20 | 2015-08-18 | Faro Technologies, Inc. | Three-dimensional scanner with spectroscopic energy detector |
KR101155565B1 (ko) * | 2009-11-27 | 2012-06-19 | 한국전자통신연구원 | 네트워크를 이용한 차량 제어 방법 및 시스템 |
AT509438A1 (de) * | 2010-01-18 | 2011-08-15 | Zeno Track Gmbh | Verfahren und system zum erfassen der position eines fahrzeuges in einem definierten bereich |
US9163922B2 (en) | 2010-01-20 | 2015-10-20 | Faro Technologies, Inc. | Coordinate measurement machine with distance meter and camera to determine dimensions within camera images |
US8028432B2 (en) | 2010-01-20 | 2011-10-04 | Faro Technologies, Inc. | Mounting device for a coordinate measuring machine |
US9879976B2 (en) | 2010-01-20 | 2018-01-30 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features |
US9628775B2 (en) | 2010-01-20 | 2017-04-18 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
US9607239B2 (en) | 2010-01-20 | 2017-03-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
DE102010001922A1 (de) * | 2010-02-15 | 2011-08-18 | Robert Bosch GmbH, 70469 | Verfahren und Vorrichtung zum Parken eines Kraftfahrzeugs |
DE102010002020A1 (de) * | 2010-02-17 | 2011-08-18 | Deere & Company, Ill. | Vorrichtung zur Steuerung einer Parksperre für ein Kraftfahrzeug |
US8508590B2 (en) * | 2010-03-02 | 2013-08-13 | Crown Equipment Limited | Method and apparatus for simulating a physical environment to facilitate vehicle operation and task completion |
US8538577B2 (en) * | 2010-03-05 | 2013-09-17 | Crown Equipment Limited | Method and apparatus for sensing object load engagement, transportation and disengagement by automated vehicles |
US8024469B1 (en) * | 2010-03-05 | 2011-09-20 | Brass Monkey Inc. | System and method for connecting network sockets between applications |
US8346426B1 (en) | 2010-04-28 | 2013-01-01 | Google Inc. | User interface for displaying internal state of autonomous driving system |
US8260482B1 (en) * | 2010-04-28 | 2012-09-04 | Google Inc. | User interface for displaying internal state of autonomous driving system |
US8849518B2 (en) * | 2010-05-07 | 2014-09-30 | Ford Global Technologies, Llc | Method and system for automatic wheel positioning |
DE102010020925B4 (de) | 2010-05-10 | 2014-02-27 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung |
CA2740329C (en) | 2010-05-13 | 2017-06-13 | Hubert Roberge | Transmission control system and method thereof |
JP5503419B2 (ja) * | 2010-06-03 | 2014-05-28 | 株式会社日立製作所 | 無人搬送車および走行制御方法 |
JP5382218B2 (ja) * | 2010-06-16 | 2014-01-08 | トヨタ自動車株式会社 | 運転支援装置 |
DE102010032723B3 (de) | 2010-07-26 | 2011-11-24 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
DE102010032726B3 (de) | 2010-07-26 | 2011-11-24 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
DE102010032725B4 (de) | 2010-07-26 | 2012-04-26 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
DE102010033561B3 (de) | 2010-07-29 | 2011-12-15 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US8509982B2 (en) | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
US8924067B2 (en) * | 2010-10-12 | 2014-12-30 | Caterpillar Inc. | Autonomous machine control system |
US20120089291A1 (en) * | 2010-10-12 | 2012-04-12 | Halder Bibhrajit | Autonomous machine control system |
US8750319B2 (en) * | 2010-11-03 | 2014-06-10 | Broadcom Corporation | Data bridge |
DE102010050790A1 (de) * | 2010-11-10 | 2012-05-10 | Claas Selbstfahrende Erntemaschinen Gmbh | Verfahren zur Lokalisierung eines landwirtschaftlichen Arbeitsgerätes |
DE102010060505A1 (de) * | 2010-11-11 | 2012-05-16 | Gottwald Port Technology Gmbh | Containertransportfahrzeug |
US9168654B2 (en) | 2010-11-16 | 2015-10-27 | Faro Technologies, Inc. | Coordinate measuring machines with dual layer arm |
US8620489B2 (en) * | 2010-12-24 | 2013-12-31 | Microsoft Corporation | Robotic drive system modularity |
US8863256B1 (en) | 2011-01-14 | 2014-10-14 | Cisco Technology, Inc. | System and method for enabling secure transactions using flexible identity management in a vehicular environment |
KR101809973B1 (ko) * | 2011-01-24 | 2017-12-19 | 삼성전자주식회사 | 로봇 제어 시스템 및 로봇 제어 방법 |
TW201238723A (en) * | 2011-01-31 | 2012-10-01 | Robotex Inc | Robotic arm system |
US8791911B2 (en) | 2011-02-09 | 2014-07-29 | Robotzone, Llc | Multichannel controller |
AU2012246717A1 (en) | 2011-02-25 | 2013-09-12 | Vnomics Corp. | System and method for in-vehicle operator training |
US20120233102A1 (en) * | 2011-03-11 | 2012-09-13 | Toyota Motor Engin. & Manufact. N.A.(TEMA) | Apparatus and algorithmic process for an adaptive navigation policy in partially observable environments |
US9237534B2 (en) * | 2011-03-25 | 2016-01-12 | General Motors Llc | Mobile application DRx synchronization with embedded vehicle hardware |
JP5853205B2 (ja) * | 2011-03-29 | 2016-02-09 | パナソニックIpマネジメント株式会社 | 車両制御装置 |
FR2973963B1 (fr) * | 2011-04-08 | 2013-04-12 | Valeo Sys Controle Moteur Sas | Dispositif de transfert de charge et procede de gestion associe |
AU2012243484B2 (en) | 2011-04-11 | 2014-10-30 | Crown Equipment Corporation | Method and apparatus for efficient scheduling for multiple automated non-holonomic vehicles using a coordinated path planner |
DE102011007914A1 (de) * | 2011-04-21 | 2012-10-25 | Deere & Company | Datenkommunikationsschnittstelle für ein landwirtschaftliches Nutzfahrzeug |
US9581997B1 (en) * | 2011-04-22 | 2017-02-28 | Angel A. Penilla | Method and system for cloud-based communication for automatic driverless movement |
US8078349B1 (en) * | 2011-05-11 | 2011-12-13 | Google Inc. | Transitioning a mixed-mode vehicle to autonomous mode |
US8738198B2 (en) * | 2011-05-26 | 2014-05-27 | Foster-Miller, Inc. | Robot surveillance system and method |
US8655588B2 (en) | 2011-05-26 | 2014-02-18 | Crown Equipment Limited | Method and apparatus for providing accurate localization for an industrial vehicle |
US8548671B2 (en) | 2011-06-06 | 2013-10-01 | Crown Equipment Limited | Method and apparatus for automatically calibrating vehicle parameters |
US9390617B2 (en) * | 2011-06-10 | 2016-07-12 | Robotzone, Llc | Camera motion control system with variable autonomy |
US8589012B2 (en) | 2011-06-14 | 2013-11-19 | Crown Equipment Limited | Method and apparatus for facilitating map data processing for industrial vehicle navigation |
US8594923B2 (en) | 2011-06-14 | 2013-11-26 | Crown Equipment Limited | Method and apparatus for sharing map data associated with automated industrial vehicles |
US8994521B2 (en) * | 2011-06-29 | 2015-03-31 | GM Global Technology Operations LLC | Steering wheels for vehicle control in manual and autonomous driving |
EP2737375B1 (de) * | 2011-07-27 | 2016-11-16 | ABB Schweiz AG | System zur befehlssteuerung eines roboters |
JP5892360B2 (ja) * | 2011-08-02 | 2016-03-23 | ソニー株式会社 | ロボット指示装置、ロボット指示方法、プログラム、及び通信システム |
US20140058634A1 (en) | 2012-08-24 | 2014-02-27 | Crown Equipment Limited | Method and apparatus for using unique landmarks to locate industrial vehicles at start-up |
WO2013033171A1 (en) | 2011-08-29 | 2013-03-07 | Crown Equipment Corporation | Multimode vehicular navigation control |
CN108415412A (zh) * | 2011-08-29 | 2018-08-17 | 克朗设备公司 | 车辆导航控制接口 |
BR112014004809A2 (pt) | 2011-08-29 | 2017-03-21 | Crown Equip Corp | sistema, método, e, veículo |
US9056754B2 (en) | 2011-09-07 | 2015-06-16 | Crown Equipment Limited | Method and apparatus for using pre-positioned objects to localize an industrial vehicle |
DE102012216218A1 (de) * | 2011-09-12 | 2013-03-14 | Continental Teves Ag & Co. Ohg | Sensorsystem umfassend ein Fusionsfilter zur gemeinsamen Signalverarbeitung |
DE102011117116B4 (de) * | 2011-10-27 | 2014-02-13 | Diehl Bgt Defence Gmbh & Co. Kg | Steuereinrichtung zum wenigstens teilweise autonomen Betrieb eines Fahrzeugs und Fahrzeug mit solch einer Steuereinrichtung |
US9235987B2 (en) * | 2011-11-17 | 2016-01-12 | GM Global Technology Operations LLC | System and method for closed-loop driver attention management |
DE102011121255B3 (de) * | 2011-12-15 | 2013-04-18 | Lear Corporation Gmbh | Steuersystem eines Kraftfahrzeugs mit vereinfachtem Informationsaustausch |
US20130201316A1 (en) * | 2012-01-09 | 2013-08-08 | May Patents Ltd. | System and method for server based control |
US8855847B2 (en) | 2012-01-20 | 2014-10-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Intelligent navigation system |
DE102012100609A1 (de) | 2012-01-25 | 2013-07-25 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
DE102012002823A1 (de) | 2012-02-11 | 2012-09-13 | Daimler Ag | Steuerungseinrichtung für ein Fahrzeug |
US20140309872A1 (en) * | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Customization of vehicle user interfaces based on user intelligence |
TWI486874B (zh) * | 2012-03-27 | 2015-06-01 | 華擎科技股份有限公司 | 電子裝置及開機方法 |
US9584711B2 (en) * | 2012-04-04 | 2017-02-28 | Schlumberger Technology Corporation | Imaging methods and systems for controlling equipment in remote environments |
US20130268138A1 (en) * | 2012-04-05 | 2013-10-10 | Caterpillar Inc. | High Availability For Autonomous Machine Control System |
CN103359051B (zh) * | 2012-04-06 | 2016-03-30 | 比亚迪股份有限公司 | 车辆、车用智能钥匙装置、车辆遥控驾驶系统及方法 |
CN103359060B (zh) * | 2012-04-06 | 2016-01-13 | 比亚迪股份有限公司 | 车辆、车用智能钥匙装置、车辆遥控驾驶系统及方法 |
CN103359050B (zh) * | 2012-04-06 | 2016-03-30 | 比亚迪股份有限公司 | 车辆、车用智能钥匙装置、车辆遥控驾驶系统及方法 |
US8718861B1 (en) | 2012-04-11 | 2014-05-06 | Google Inc. | Determining when to drive autonomously |
US9315178B1 (en) * | 2012-04-13 | 2016-04-19 | Google Inc. | Model checking for autonomous vehicles |
US8700251B1 (en) * | 2012-04-13 | 2014-04-15 | Google Inc. | System and method for automatically detecting key behaviors by vehicles |
NL2008674C2 (nl) * | 2012-04-20 | 2013-10-23 | Lely Patent Nv | Samenstel van autonome voertuigen. |
US8744700B2 (en) * | 2012-04-25 | 2014-06-03 | Darren Beams | Reversing vehicle remote telematics detection |
US9080723B2 (en) * | 2012-05-17 | 2015-07-14 | Caterpillar Inc. | Personnel classification and response system |
US9014903B1 (en) * | 2012-05-22 | 2015-04-21 | Google Inc. | Determination of object heading based on point cloud |
US8909375B2 (en) * | 2012-05-25 | 2014-12-09 | The United States Of America, As Represented By The Secretary Of The Navy | Nodding mechanism for a single-scan sensor |
WO2014001098A1 (de) * | 2012-06-26 | 2014-01-03 | Schaeffler Technologies AG & Co. KG | Verfahren zur protokoll-umsetzung für die programmierung von getriebe- und kupplungssteuergeräten |
US8997362B2 (en) | 2012-07-17 | 2015-04-07 | Faro Technologies, Inc. | Portable articulated arm coordinate measuring machine with optical communications bus |
US9969081B2 (en) * | 2012-07-27 | 2018-05-15 | Alberto Daniel Lacaze | Method and system for the directed control of robotic assets |
US8983662B2 (en) * | 2012-08-03 | 2015-03-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Robots comprising projectors for projecting images on identified projection surfaces |
DE102012107544B3 (de) | 2012-08-17 | 2013-05-23 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
KR102142162B1 (ko) | 2012-08-27 | 2020-09-14 | 에이비 엘렉트로룩스 | 로봇 위치 선정 시스템 |
US9056395B1 (en) * | 2012-09-05 | 2015-06-16 | Google Inc. | Construction zone sign detection using light detection and ranging |
US8996228B1 (en) * | 2012-09-05 | 2015-03-31 | Google Inc. | Construction zone object detection using light detection and ranging |
US9195914B2 (en) | 2012-09-05 | 2015-11-24 | Google Inc. | Construction zone sign detection |
GB2505679B (en) * | 2012-09-06 | 2015-02-18 | Jaguar Land Rover Ltd | Vehicle control system and method |
US9367798B2 (en) | 2012-09-20 | 2016-06-14 | Brain Corporation | Spiking neuron network adaptive control apparatus and methods |
US9633564B2 (en) | 2012-09-27 | 2017-04-25 | Google Inc. | Determining changes in a driving environment based on vehicle behavior |
US8949016B1 (en) | 2012-09-28 | 2015-02-03 | Google Inc. | Systems and methods for determining whether a driving environment has changed |
US9513107B2 (en) | 2012-10-05 | 2016-12-06 | Faro Technologies, Inc. | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner |
DE102012109481A1 (de) | 2012-10-05 | 2014-04-10 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
US9529358B2 (en) | 2012-11-06 | 2016-12-27 | Kvaser Ab | Remote control system and method and usage related to such a system |
CN102929279B (zh) * | 2012-11-07 | 2014-11-05 | 无锡普智联科高新技术有限公司 | 基于三维空间密集存储区域的多机器人路径规划方法 |
US8874282B2 (en) * | 2012-11-14 | 2014-10-28 | Lars-Berno Fredriksson | Model vehicle remote control system |
DE102012220818A1 (de) * | 2012-11-14 | 2014-06-12 | Continental Automotive Gmbh | Vorrichtung zur Stromversorgung in einem Fahrzeug |
US8942863B2 (en) * | 2012-11-15 | 2015-01-27 | Caterpillar Inc. | Worksite position control system having integrity checking |
US8825258B2 (en) | 2012-11-30 | 2014-09-02 | Google Inc. | Engaging and disengaging for autonomous driving |
US9213331B2 (en) * | 2012-12-19 | 2015-12-15 | Caterpillar Inc. | Remote control system for a machine |
KR101449210B1 (ko) * | 2012-12-27 | 2014-10-08 | 현대자동차주식회사 | 자율 주행 차량의 운전모드 전환 장치 및 그 방법 |
EP2944543B1 (de) * | 2013-01-11 | 2016-11-09 | Nissan Motor Co., Ltd. | Lenksteuerungsvorrichtung und lenksteuerungsverfahren |
US20140214256A1 (en) * | 2013-01-25 | 2014-07-31 | GM Global Technology Operations LLC | Steering system for an autonomously driven vehicle and methods of steering the same |
US9014874B2 (en) * | 2013-01-29 | 2015-04-21 | Foster-Miller, Inc. | Tactical robot controller |
US9155247B1 (en) | 2013-02-26 | 2015-10-13 | Jason Force | Mobile platform based biomass powered harvester |
KR101883475B1 (ko) * | 2013-02-28 | 2018-07-31 | 한화지상방산 주식회사 | 소형통합제어장치 |
US8996224B1 (en) * | 2013-03-15 | 2015-03-31 | Google Inc. | Detecting that an autonomous vehicle is in a stuck condition |
US8849494B1 (en) | 2013-03-15 | 2014-09-30 | Google Inc. | Data selection by an autonomous vehicle for trajectory modification |
US9008890B1 (en) | 2013-03-15 | 2015-04-14 | Google Inc. | Augmented trajectories for autonomous vehicles |
US9333983B2 (en) * | 2013-03-15 | 2016-05-10 | Volkswagen Ag | Dual-state steering wheel/input device |
US9342074B2 (en) * | 2013-04-05 | 2016-05-17 | Google Inc. | Systems and methods for transitioning control of an autonomous vehicle to a driver |
CN105101855A (zh) | 2013-04-15 | 2015-11-25 | 伊莱克斯公司 | 具有伸出的侧刷的机器人真空吸尘器 |
WO2014169943A1 (en) | 2013-04-15 | 2014-10-23 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
US9513932B2 (en) | 2013-04-30 | 2016-12-06 | Deere & Company | Virtual terminal display for a vehicle |
CN104238380B (zh) * | 2013-06-06 | 2018-04-27 | 泰科电子(上海)有限公司 | 一种用于电器的智能连接器模块 |
KR101491260B1 (ko) * | 2013-06-07 | 2015-02-06 | 현대자동차주식회사 | 자동차용 ecu 다중 진단 시스템 및 방법 |
US20150005937A1 (en) * | 2013-06-27 | 2015-01-01 | Brain Corporation | Action selection apparatus and methods |
US10915113B2 (en) * | 2013-07-02 | 2021-02-09 | Ubiquity Robotics, Inc. | Versatile autonomous mobile platform with 3-d imaging system |
KR102096398B1 (ko) * | 2013-07-03 | 2020-04-03 | 삼성전자주식회사 | 자율 이동 로봇의 위치 인식 방법 |
KR101470190B1 (ko) * | 2013-07-09 | 2014-12-05 | 현대자동차주식회사 | 자율주행 시스템의 고장 처리 장치 및 그 방법 |
CN103425131B (zh) * | 2013-08-15 | 2015-12-23 | 江苏大学 | 基于非光滑控制和扰动观测的农用拖拉机导航控制方法 |
IN2013MU02698A (de) * | 2013-08-19 | 2015-06-19 | Deere & Co | |
DE102013013867A1 (de) * | 2013-08-20 | 2015-03-12 | Audi Ag | Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs |
DE102013110864A1 (de) * | 2013-10-01 | 2015-04-02 | Volkswagen Aktiengesellschaft | Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs |
US9489623B1 (en) | 2013-10-15 | 2016-11-08 | Brain Corporation | Apparatus and methods for backward propagation of errors in a spiking neuron network |
DE102013220905A1 (de) * | 2013-10-15 | 2015-04-16 | Continental Automotive Gmbh | Verfahren zum Führen eines Kraftfahrzeugs und Kraftfahrzeug zum Ausführen des Verfahrens |
DE102013222048B4 (de) | 2013-10-30 | 2023-10-05 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Aktivieren oder Deaktivieren einer automatischen Fahrfunktion |
US20150127192A1 (en) * | 2013-11-06 | 2015-05-07 | Hitachi, Ltd | Wireless vehicle control system |
US9434431B2 (en) * | 2013-11-11 | 2016-09-06 | Lit Motors Corporation | Intuitive drive-by-wire steering with redundant mechanical control |
US9108584B2 (en) | 2013-11-20 | 2015-08-18 | Ford Global Technologies, Llc | Multi-stage airbag in vehicle with reconfigurable interior |
US9073574B2 (en) * | 2013-11-20 | 2015-07-07 | Ford Global Technologies, Llc | Autonomous vehicle with reconfigurable interior |
US9096150B2 (en) * | 2013-11-20 | 2015-08-04 | Ford Global Technologies, Llc | Autonomous vehicle with reconfigurable seats |
US9580033B2 (en) * | 2013-11-20 | 2017-02-28 | Ford Global Technologies, Llc | Dual airbags in vehicle with reconfigurable interior |
US9199553B2 (en) | 2013-11-20 | 2015-12-01 | Ford Global Technologies | Autonomous vehicle with reconfigurable seats |
US9227531B2 (en) | 2013-11-20 | 2016-01-05 | Ford Global Technologies, Llc | Autonomous vehicle with reconfigurable seats |
US8989944B1 (en) | 2013-11-26 | 2015-03-24 | Google Inc. | Methods and devices for determining movements of an object in an environment |
US9364178B2 (en) | 2013-11-26 | 2016-06-14 | Elwha Llc | Robotic vehicle control |
JP6329642B2 (ja) | 2013-12-10 | 2018-05-23 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | センサ融合 |
US20150168953A1 (en) * | 2013-12-13 | 2015-06-18 | Itrack Llc | Autonomous self-leveling vehicle |
CN105744872B (zh) | 2013-12-19 | 2020-01-14 | 伊莱克斯公司 | 旋转侧刷的自适应速度控制 |
WO2015090397A1 (en) | 2013-12-19 | 2015-06-25 | Aktiebolaget Electrolux | Robotic cleaning device |
KR102124235B1 (ko) | 2013-12-19 | 2020-06-24 | 에이비 엘렉트로룩스 | 주변 기록 기능을 갖는 로봇 청소 디바이스 |
KR102393550B1 (ko) | 2013-12-19 | 2022-05-04 | 에이비 엘렉트로룩스 | 청소 영역의 우선순위를 정하는 방법 |
EP3082537B1 (de) | 2013-12-19 | 2020-11-18 | Aktiebolaget Electrolux | Robotische reinigungsvorrichtung und verfahren zur bezugspunkterkennung |
EP3082544B1 (de) | 2013-12-19 | 2020-10-07 | Aktiebolaget Electrolux | Roboterstaubsauger mit seitlicher bürste,der sich in einem spiralmuster bewegt |
KR102099495B1 (ko) | 2013-12-19 | 2020-04-09 | 에이비 엘렉트로룩스 | 로봇 청소 장치가 장애물에 올라가는 것의 감지 |
EP3082539B1 (de) | 2013-12-20 | 2019-02-20 | Aktiebolaget Electrolux | Staubbehälter |
US9352745B1 (en) * | 2013-12-30 | 2016-05-31 | Daniel Theobald | Method and apparatus for transporting a payload |
US9283674B2 (en) | 2014-01-07 | 2016-03-15 | Irobot Corporation | Remotely operating a mobile robot |
JP5850957B2 (ja) * | 2014-01-15 | 2016-02-03 | ファナック株式会社 | 遠隔地にあるロボット遠隔監視システム |
CN106164849B (zh) * | 2014-01-23 | 2021-01-29 | 马辛德拉公司 | 用于车辆的多模式控制系统 |
US10096067B1 (en) | 2014-01-24 | 2018-10-09 | Allstate Insurance Company | Reward system related to a vehicle-to-vehicle communication system |
US9390451B1 (en) | 2014-01-24 | 2016-07-12 | Allstate Insurance Company | Insurance system related to a vehicle-to-vehicle communication system |
US9355423B1 (en) | 2014-01-24 | 2016-05-31 | Allstate Insurance Company | Reward system related to a vehicle-to-vehicle communication system |
JP6028745B2 (ja) * | 2014-01-24 | 2016-11-16 | トヨタ自動車株式会社 | 車両用操舵制御装置 |
EP2907730B1 (de) | 2014-01-29 | 2017-09-06 | Steering Solutions IP Holding Corporation | Erkennung von Händen am Lenkrad |
US9739226B2 (en) * | 2014-02-07 | 2017-08-22 | Ford Global Technologies, Llc | Walk-away vehicle shutdown |
KR101536141B1 (ko) | 2014-02-13 | 2015-07-13 | 현대자동차주식회사 | 이더넷과 can 통신 간의 신호 변환을 제공하는 차량용 장치 및 그 제어방법 |
KR101491622B1 (ko) * | 2014-02-17 | 2015-02-11 | 연세대학교 산학협력단 | 자율 주행형 차량의 주행 제어 장치 및 방법 |
US9940676B1 (en) | 2014-02-19 | 2018-04-10 | Allstate Insurance Company | Insurance system for analysis of autonomous driving |
US10783586B1 (en) | 2014-02-19 | 2020-09-22 | Allstate Insurance Company | Determining a property of an insurance policy based on the density of vehicles |
US10803525B1 (en) * | 2014-02-19 | 2020-10-13 | Allstate Insurance Company | Determining a property of an insurance policy based on the autonomous features of a vehicle |
US10783587B1 (en) | 2014-02-19 | 2020-09-22 | Allstate Insurance Company | Determining a driver score based on the driver's response to autonomous features of a vehicle |
US10796369B1 (en) | 2014-02-19 | 2020-10-06 | Allstate Insurance Company | Determining a property of an insurance policy based on the level of autonomy of a vehicle |
US10046793B2 (en) * | 2014-02-26 | 2018-08-14 | GM Global Technology Operations LLC | Methods and systems for automated driving |
DE102014203541A1 (de) * | 2014-02-27 | 2015-08-27 | Continental Teves Ag & Co. Ohg | Fahrerlos betreibbares Fahrzeug und Verfahren zum Betrieb eines solchen Fahrzeugs |
US9722526B2 (en) * | 2014-02-28 | 2017-08-01 | Rockwell Automation Technologies, Inc. | Modular motor drive communication system and method |
US9722937B2 (en) | 2014-02-28 | 2017-08-01 | Rockwell Automation Technologies, Inc. | Enhanced motor drive communication system and method |
US9720410B2 (en) | 2014-03-03 | 2017-08-01 | Waymo Llc | Remote assistance for autonomous vehicles in predetermined situations |
US9465388B1 (en) | 2014-03-03 | 2016-10-11 | Google Inc. | Remote assistance for an autonomous vehicle in low confidence situations |
US9547989B2 (en) | 2014-03-04 | 2017-01-17 | Google Inc. | Reporting road event data and sharing with other vehicles |
US20150195765A1 (en) * | 2014-03-25 | 2015-07-09 | Sanjay Bhardwaj | Method, Apparatus and System for Connected Automobiles |
EP3126990A4 (de) * | 2014-04-02 | 2017-11-29 | Continental Automotive GmbH | Frühe rückfahrkameravideoanzeige in einer mehrprozessorarchitektur |
US9681272B2 (en) | 2014-04-23 | 2017-06-13 | At&T Intellectual Property I, L.P. | Facilitating mesh networks of connected movable objects |
US9304515B2 (en) * | 2014-04-24 | 2016-04-05 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Regional operation modes for autonomous vehicles |
US9365213B2 (en) * | 2014-04-30 | 2016-06-14 | Here Global B.V. | Mode transition for an autonomous vehicle |
CN106660203B (zh) * | 2014-05-09 | 2019-10-22 | 卡内基梅隆大学 | 用于机电系统中的模块化单元的系统和方法 |
US11669090B2 (en) | 2014-05-20 | 2023-06-06 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle operation feature monitoring and evaluation of effectiveness |
US10354330B1 (en) | 2014-05-20 | 2019-07-16 | State Farm Mutual Automobile Insurance Company | Autonomous feature use monitoring and insurance pricing |
US10599155B1 (en) | 2014-05-20 | 2020-03-24 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle operation feature monitoring and evaluation of effectiveness |
US10373259B1 (en) | 2014-05-20 | 2019-08-06 | State Farm Mutual Automobile Insurance Company | Fully autonomous vehicle insurance pricing |
US9972054B1 (en) | 2014-05-20 | 2018-05-15 | State Farm Mutual Automobile Insurance Company | Accident fault determination for autonomous vehicles |
US20150336575A1 (en) * | 2014-05-21 | 2015-11-26 | GM Global Technology Operations LLC | Collision avoidance with static targets in narrow spaces |
US9499348B2 (en) | 2014-05-23 | 2016-11-22 | Ty-Crop Manufacturing Ltd. | Material handling conveyor vehicle |
US10278333B2 (en) * | 2014-05-26 | 2019-05-07 | Institute Of Automation Chinese Academy Of Sciences | Pruning robot system |
JP2015230573A (ja) * | 2014-06-05 | 2015-12-21 | アルパイン株式会社 | 車両運転支援装置、方法およびプログラム |
CA2893686A1 (en) * | 2014-06-09 | 2015-12-09 | Ty-Crop Manufacturing Ltd. | Control system for material handling conveyor vehicle |
US9798007B2 (en) | 2014-07-01 | 2017-10-24 | Sikorsky Aircraft Corporation | Obstacle data model construction system with range sensor shadows and use in motion planning |
EP3167341B1 (de) | 2014-07-10 | 2018-05-09 | Aktiebolaget Electrolux | Verfahren zur erkennung eines messfehlers in einer robotischen reinigungsvorrichtung |
US10055726B2 (en) * | 2014-07-14 | 2018-08-21 | Jpmorgan Chase Bank, N.A. | Systems and methods for management of mobile banking resources |
US9726463B2 (en) | 2014-07-16 | 2017-08-08 | Robtozone, LLC | Multichannel controller for target shooting range |
DE102014213959A1 (de) | 2014-07-17 | 2016-01-21 | Continental Automotive Gmbh | Verfahren zum Überwachen eines automatisierten Fahrens |
US9786154B1 (en) | 2014-07-21 | 2017-10-10 | State Farm Mutual Automobile Insurance Company | Methods of facilitating emergency assistance |
US20160027303A1 (en) * | 2014-07-22 | 2016-01-28 | Advanced Technology & Research Corp. | Active detection system for low ground clearance vehicles |
EP3862837B1 (de) | 2014-07-30 | 2023-05-03 | SZ DJI Technology Co., Ltd. | Systeme und verfahren zur zielverfolgung |
US10209062B1 (en) * | 2014-08-01 | 2019-02-19 | Google Llc | Use of offline algorithm to determine location from previous sensor data when location is requested |
US9844880B1 (en) | 2014-08-07 | 2017-12-19 | Kairos Autonomi, Inc. | Unmanned vehicle retrofitting applique assembly |
US9321461B1 (en) | 2014-08-29 | 2016-04-26 | Google Inc. | Change detection using curve alignment |
JP6278539B2 (ja) * | 2014-09-05 | 2018-02-14 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 状況に基づく飛行モード選択 |
JP6181300B2 (ja) | 2014-09-05 | 2017-08-16 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人航空機の速度を制御するシステム |
CN110174903B (zh) | 2014-09-05 | 2023-05-09 | 深圳市大疆创新科技有限公司 | 用于在环境内控制可移动物体的系统和方法 |
DE102014217848A1 (de) * | 2014-09-08 | 2016-03-10 | Continental Automotive Gmbh | Fahrerassistenzsystem |
JP6459098B2 (ja) | 2014-09-08 | 2019-01-30 | アクチエボラゲット エレクトロルックス | ロボット真空掃除機 |
WO2016037635A1 (en) | 2014-09-08 | 2016-03-17 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
CN105487424A (zh) * | 2014-09-16 | 2016-04-13 | 陕西汽车集团有限责任公司 | 专用车上装电气控制系统用控制装置及专用车 |
WO2016048372A1 (en) * | 2014-09-26 | 2016-03-31 | Nissan North America, Inc. | Method and system of assisting a driver of a vehicle |
US9248834B1 (en) | 2014-10-02 | 2016-02-02 | Google Inc. | Predicting trajectories of objects based on contextual information |
US10188029B1 (en) * | 2014-10-20 | 2019-01-29 | Hydro-Gear Limited Partnership | Method of generating a three-dimensional map of a lawn and its use to improve mowing efficiency |
DE102014221682A1 (de) * | 2014-10-24 | 2016-04-28 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs |
JP6520048B2 (ja) * | 2014-10-30 | 2019-05-29 | 村田機械株式会社 | 移動体 |
US9494935B2 (en) | 2014-11-13 | 2016-11-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Remote operation of autonomous vehicle in unexpected environment |
US11127290B1 (en) | 2014-11-13 | 2021-09-21 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle infrastructure communication device |
DE102014116882B4 (de) * | 2014-11-18 | 2018-05-24 | B. Strautmann & Söhne GmbH u. Co. KG | Verfahren zur Entnahme von Futtermitteln aus Fahrsilos |
EP3222391B1 (de) | 2014-11-19 | 2020-04-22 | Positec Technology (China) Co., Ltd. | Selbstbewegender roboter |
CN105701789A (zh) * | 2014-11-26 | 2016-06-22 | 沈阳飞机工业(集团)有限公司 | 飞机近场飞行轨迹跟踪方法 |
EP3230814B1 (de) | 2014-12-10 | 2021-02-17 | Aktiebolaget Electrolux | Verwendung eines lasersensors zur bodentypdetektion |
WO2016091320A1 (en) | 2014-12-12 | 2016-06-16 | Aktiebolaget Electrolux | Side brush and robotic cleaner |
WO2016100219A1 (en) | 2014-12-15 | 2016-06-23 | Polaris Industires Inc. | Autonomous ready vehicle |
KR101941938B1 (ko) * | 2014-12-15 | 2019-01-24 | 한화디펜스 주식회사 | 소형통합제어장치 |
EP3234714B1 (de) | 2014-12-16 | 2021-05-12 | Aktiebolaget Electrolux | Erfahrungsbasierte karte einer robotischen reinigungsvorrichtung |
EP3234713B1 (de) | 2014-12-16 | 2022-06-15 | Aktiebolaget Electrolux | Reinigungsverfahren für eine robotische reinigungsvorrichtung |
US9471062B1 (en) * | 2014-12-30 | 2016-10-18 | Daniel Theobald | Vehicle operating method and system |
US10500955B2 (en) * | 2014-12-30 | 2019-12-10 | Visteon Global Technologies, Inc. | Automatic upgrade of a vehicle-based processor based on a physical component change |
US10518407B2 (en) | 2015-01-06 | 2019-12-31 | Discovery Robotics | Apparatus and methods for providing a reconfigurable robotic platform |
US11400595B2 (en) | 2015-01-06 | 2022-08-02 | Nexus Robotics Llc | Robotic platform with area cleaning mode |
US20160209185A1 (en) * | 2015-01-15 | 2016-07-21 | George Ford | Remote control target and method of use |
DE102015201010A1 (de) * | 2015-01-22 | 2016-07-28 | Robert Bosch Gmbh | Vorrichtung zum Ansteuern eines Kraftfahrzeugs |
JP6375237B2 (ja) * | 2015-01-28 | 2018-08-15 | 日立オートモティブシステムズ株式会社 | 自動運転制御装置 |
US10026581B2 (en) * | 2015-03-06 | 2018-07-17 | Asa Electronics, Llc | Switch override system for recreation vehicle controls |
JP6631018B2 (ja) * | 2015-03-10 | 2020-01-15 | オムロン株式会社 | リアクトル、基板モジュール、および電気機器 |
US10175040B2 (en) | 2015-03-20 | 2019-01-08 | Process Metrix | Characterization of refractory lining of metallurgical vessels using autonomous scanners |
JP6304086B2 (ja) * | 2015-03-23 | 2018-04-04 | トヨタ自動車株式会社 | 自動運転装置 |
US9751558B2 (en) | 2015-03-25 | 2017-09-05 | Ford Global Technologies, Llc | Handwheel obstruction detection and inertia compensation |
US9616928B2 (en) | 2015-03-25 | 2017-04-11 | Ford Global Technologies, Llc | Steering angle control for multiple features |
US9989636B2 (en) | 2015-03-26 | 2018-06-05 | Deere & Company | Multi-use detection system for work vehicle |
US10459524B2 (en) * | 2015-04-14 | 2019-10-29 | Northrop Grumman Systems Corporation | Multi-sensor control system and method for remote signaling control of unmanned vehicles |
US9499202B2 (en) * | 2015-04-15 | 2016-11-22 | Delphi Technologies, Inc. | Steering system and method for autonomous vehicles |
CN107405034B (zh) | 2015-04-17 | 2022-09-13 | 伊莱克斯公司 | 机器人清洁设备以及控制所述机器人清洁设备的方法 |
JP2016203718A (ja) * | 2015-04-17 | 2016-12-08 | トヨタ自動車株式会社 | 車両の制御装置 |
US10351159B2 (en) | 2015-05-01 | 2019-07-16 | Steering Solutions Ip Holding Corporation | Retractable steering column with a radially projecting attachment |
US10589774B2 (en) | 2015-05-01 | 2020-03-17 | Steering Solutions Ip Holding Corporation | Counter rotation steering wheel |
US9612596B2 (en) * | 2015-05-05 | 2017-04-04 | Ford Global Technologies, Llc | Hands-off steering wheel governed by pedestrian detection |
US10167015B2 (en) | 2015-05-11 | 2019-01-01 | GM Global Technology Operations LLC | System for retrofitting vehicle automation |
US9919724B2 (en) | 2015-05-29 | 2018-03-20 | Steering Solutions Ip Holding Corporation | Retractable steering column with manual retrieval |
US9690290B2 (en) * | 2015-06-04 | 2017-06-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Situation-based transfer of vehicle sensor data during remote operation of autonomous vehicles |
US9957108B2 (en) | 2015-06-08 | 2018-05-01 | Continental Intermodal Group-Trucking Llc | Conveyor transition for material handling |
US11560169B2 (en) | 2015-06-11 | 2023-01-24 | Steering Solutions Ip Holding Corporation | Retractable steering column system and method |
US10343706B2 (en) | 2015-06-11 | 2019-07-09 | Steering Solutions Ip Holding Corporation | Retractable steering column system, vehicle having the same, and method |
JP2017001597A (ja) | 2015-06-15 | 2017-01-05 | トヨタ自動車株式会社 | 自動運転装置 |
DE102016110791A1 (de) | 2015-06-15 | 2016-12-15 | Steering Solutions Ip Holding Corporation | Gestensteuerung für ein einfahrbares Lenkrad |
US10577009B2 (en) | 2015-06-16 | 2020-03-03 | Steering Solutions Ip Holding Corporation | Retractable steering column assembly and method |
DE102015211218A1 (de) | 2015-06-18 | 2016-12-22 | Robert Bosch Gmbh | Steuereinrichtung und Verfahren zur Steuerung einer autonomen mobilen Plattform |
US9802638B1 (en) * | 2015-06-19 | 2017-10-31 | Waymo Llc | Removable manual controls for an autonomous vehicle |
US9828016B2 (en) | 2015-06-24 | 2017-11-28 | Steering Solutions Ip Holding Corporation | Retractable steering column system, vehicle having the same, and method |
DE102016111473A1 (de) | 2015-06-25 | 2016-12-29 | Steering Solutions Ip Holding Corporation | Stationäre lenkradbaugruppe und verfahren |
US20160375931A1 (en) | 2015-06-25 | 2016-12-29 | Steering Solutions Ip Holding Corporation | Rotation control system for a steering wheel and method |
US10112639B2 (en) | 2015-06-26 | 2018-10-30 | Steering Solutions Ip Holding Corporation | Vehicle steering arrangement and method of making same |
US9944307B2 (en) | 2015-06-26 | 2018-04-17 | Steering Solutions Ip Holding Corporation | Steering assembly and method of monitoring a space within vehicle |
US9845103B2 (en) | 2015-06-29 | 2017-12-19 | Steering Solutions Ip Holding Corporation | Steering arrangement |
US9840271B2 (en) | 2015-06-29 | 2017-12-12 | Steering Solutions Ip Holding Corporation | Retractable steering column with rake limiter |
EP3118071B1 (de) * | 2015-07-13 | 2021-09-08 | Volvo Car Corporation | Sicherheitsbremsvorrichtung und verfahren zur sicherheitsbremsung eines autonomen fahrzeugs |
US9588517B2 (en) | 2015-07-14 | 2017-03-07 | Delphi Technologies, Inc. | Automated vehicle control take-over alert timing based on infotainment activation |
JP6350428B2 (ja) * | 2015-07-22 | 2018-07-04 | トヨタ自動車株式会社 | 車載記録システム |
GB201512964D0 (en) * | 2015-07-22 | 2015-09-02 | Cambridge Medical Robotics Ltd | Communication paths for robot arms |
KR101962889B1 (ko) * | 2015-07-27 | 2019-03-28 | 한국전자통신연구원 | 작업환경 변화에 적응적인 로봇 동작 데이터 제공장치 및 그 방법 |
US9849904B2 (en) | 2015-07-31 | 2017-12-26 | Steering Solutions Ip Holding Corporation | Retractable steering column with dual actuators |
US9849864B2 (en) | 2015-07-31 | 2017-12-26 | Ford Global Technologies, Llc | Vehicle parking assist system |
US9869560B2 (en) | 2015-07-31 | 2018-01-16 | International Business Machines Corporation | Self-driving vehicle's response to a proximate emergency vehicle |
US9483948B1 (en) | 2015-08-07 | 2016-11-01 | International Business Machines Corporation | Automated control of interactions between self-driving vehicles and pedestrians |
US9785145B2 (en) * | 2015-08-07 | 2017-10-10 | International Business Machines Corporation | Controlling driving modes of self-driving vehicles |
US9721397B2 (en) | 2015-08-11 | 2017-08-01 | International Business Machines Corporation | Automatic toll booth interaction with self-driving vehicles |
KR102294634B1 (ko) * | 2015-08-12 | 2021-08-26 | 현대자동차주식회사 | 네트워크에서 통신 노드의 동작 방법 |
US9764736B2 (en) * | 2015-08-14 | 2017-09-19 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation relative to unexpected dynamic objects |
US9718471B2 (en) | 2015-08-18 | 2017-08-01 | International Business Machines Corporation | Automated spatial separation of self-driving vehicles from manually operated vehicles |
US9481366B1 (en) | 2015-08-19 | 2016-11-01 | International Business Machines Corporation | Automated control of interactions between self-driving vehicles and animals |
DE102015215807A1 (de) * | 2015-08-19 | 2017-02-23 | Zf Friedrichshafen Ag | Entfernte Fahrerunterstützung |
US9896100B2 (en) | 2015-08-24 | 2018-02-20 | International Business Machines Corporation | Automated spatial separation of self-driving vehicles from other vehicles based on occupant preferences |
US20210272207A1 (en) | 2015-08-28 | 2021-09-02 | State Farm Mutual Automobile Insurance Company | Vehicular driver profiles and discounts |
CN106483875B (zh) * | 2015-08-31 | 2021-09-03 | 比亚迪股份有限公司 | 汽车控制器、系统以及在汽车控制器中使用的方法 |
US9845106B2 (en) | 2015-08-31 | 2017-12-19 | Steering Solutions Ip Holding Corporation | Overload protection for belt drive mechanism |
FR3040573B1 (fr) | 2015-08-31 | 2018-10-19 | Kerlink | Architecture de station de base modulable pour reseau de capteurs sans-fil. |
US9731726B2 (en) | 2015-09-02 | 2017-08-15 | International Business Machines Corporation | Redirecting self-driving vehicles to a product provider based on physiological states of occupants of the self-driving vehicles |
CN107920709A (zh) | 2015-09-03 | 2018-04-17 | 伊莱克斯公司 | 机器人清洁设备系统 |
JP6697702B2 (ja) * | 2015-09-10 | 2020-05-27 | パナソニックIpマネジメント株式会社 | 自動停止装置および自動停止方法 |
US9513632B1 (en) | 2015-09-16 | 2016-12-06 | International Business Machines Corporation | Driving mode alerts from self-driving vehicles |
US9566986B1 (en) | 2015-09-25 | 2017-02-14 | International Business Machines Corporation | Controlling driving modes of self-driving vehicles |
JP6567376B2 (ja) * | 2015-09-25 | 2019-08-28 | パナソニック株式会社 | 装置 |
EP3356899B1 (de) | 2015-09-28 | 2021-12-29 | Uatc, Llc | Verfahren zum betrieb eines autonomen fahrzeugs mit unabhängiger hilfssteuereinheit |
EP3153346B1 (de) * | 2015-10-07 | 2019-09-25 | Volvo Car Corporation | Sitzsystem für autonome fahrzeuge |
US9981656B2 (en) | 2015-10-13 | 2018-05-29 | Ford Global Technologies, Llc | Vehicle parking assist system |
US9481367B1 (en) | 2015-10-14 | 2016-11-01 | International Business Machines Corporation | Automated control of interactions between self-driving vehicles and animals |
US9824453B1 (en) | 2015-10-14 | 2017-11-21 | Allstate Insurance Company | Three dimensional image scan for vehicle |
US9834224B2 (en) | 2015-10-15 | 2017-12-05 | International Business Machines Corporation | Controlling driving modes of self-driving vehicles |
MX2018002976A (es) * | 2015-10-20 | 2018-06-11 | Ford Global Tech Llc | Facilitacion de la circulacion entre carriles por parte de las motocicletas. |
US10160472B2 (en) | 2015-10-20 | 2018-12-25 | Steering Solutions Ip Holding Corporation | Steering column with stationary hub |
US9751532B2 (en) | 2015-10-27 | 2017-09-05 | International Business Machines Corporation | Controlling spacing of self-driving vehicles based on social network relationships |
US9809155B2 (en) | 2015-10-27 | 2017-11-07 | Steering Solutions Ip Holding Corporation | Retractable steering column assembly having lever, vehicle having retractable steering column assembly, and method |
US9944291B2 (en) | 2015-10-27 | 2018-04-17 | International Business Machines Corporation | Controlling driving modes of self-driving vehicles |
US10328933B2 (en) | 2015-10-29 | 2019-06-25 | Ford Global Technologies, Llc | Cognitive reverse speed limiting |
US10607293B2 (en) | 2015-10-30 | 2020-03-31 | International Business Machines Corporation | Automated insurance toggling for self-driving vehicles |
US9606539B1 (en) | 2015-11-04 | 2017-03-28 | Zoox, Inc. | Autonomous vehicle fleet service and system |
US10401852B2 (en) | 2015-11-04 | 2019-09-03 | Zoox, Inc. | Teleoperation system and method for trajectory modification of autonomous vehicles |
US11283877B2 (en) | 2015-11-04 | 2022-03-22 | Zoox, Inc. | Software application and logic to modify configuration of an autonomous vehicle |
US10248119B2 (en) | 2015-11-04 | 2019-04-02 | Zoox, Inc. | Interactive autonomous vehicle command controller |
US10334050B2 (en) * | 2015-11-04 | 2019-06-25 | Zoox, Inc. | Software application and logic to modify configuration of an autonomous vehicle |
US9632502B1 (en) | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Machine-learning systems and techniques to optimize teleoperation and/or planner decisions |
US9630619B1 (en) | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Robotic vehicle active safety systems and methods |
WO2017079341A2 (en) | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
US9754490B2 (en) | 2015-11-04 | 2017-09-05 | Zoox, Inc. | Software application to request and control an autonomous vehicle service |
US10176525B2 (en) | 2015-11-09 | 2019-01-08 | International Business Machines Corporation | Dynamically adjusting insurance policy parameters for a self-driving vehicle |
US9791861B2 (en) | 2015-11-12 | 2017-10-17 | International Business Machines Corporation | Autonomously servicing self-driving vehicles |
US10692126B2 (en) | 2015-11-17 | 2020-06-23 | Nio Usa, Inc. | Network-based system for selling and servicing cars |
TW201718297A (zh) * | 2015-11-27 | 2017-06-01 | 鴻海精密工業股份有限公司 | 車輛駕駛模式切換系統和方法 |
DE102015223688A1 (de) * | 2015-11-30 | 2017-06-01 | Bayerische Motoren Werke Aktiengesellschaft | Anordnung, Fortbewegungsmittel und Verfahren zur Übernahme einer Fahraufgabe durch einen Insassen eines in einem hochautomatisierten Fahrzustand befindlichen Fortbewegungsmittels |
US10029725B2 (en) | 2015-12-03 | 2018-07-24 | Steering Solutions Ip Holding Corporation | Torque feedback system for a steer-by-wire vehicle, vehicle having steering column, and method of providing feedback in vehicle |
US10036642B2 (en) | 2015-12-08 | 2018-07-31 | Uber Technologies, Inc. | Automated vehicle communications system |
US9895945B2 (en) | 2015-12-08 | 2018-02-20 | Ford Global Technologies, Llc | Trailer backup assist system with hitch assist |
US10050760B2 (en) | 2015-12-08 | 2018-08-14 | Uber Technologies, Inc. | Backend communications system for a fleet of autonomous vehicles |
US10061326B2 (en) | 2015-12-09 | 2018-08-28 | International Business Machines Corporation | Mishap amelioration based on second-order sensing by a self-driving vehicle |
JP6690213B2 (ja) * | 2015-12-09 | 2020-04-28 | セイコーエプソン株式会社 | ロボット、制御装置およびロボットシステム |
DE102015225157A1 (de) * | 2015-12-14 | 2017-06-14 | Robert Bosch Gmbh | Verfahren zum Übertragen, Empfangen und Verarbeiten von Datenwerten, sowie eine Übertragungs- und Empfangsvorrichtung |
US10073965B2 (en) * | 2015-12-15 | 2018-09-11 | Nagravision S.A. | Methods and systems for validating an autonomous system that includes a dynamic-code module and a static-code module |
CN105425803B (zh) * | 2015-12-16 | 2020-05-19 | 纳恩博(北京)科技有限公司 | 自主避障方法、装置和系统 |
US9855816B2 (en) * | 2015-12-22 | 2018-01-02 | Uber Technologies, Inc. | Thermal reduction system for an automated vehicle |
US9481393B1 (en) * | 2015-12-22 | 2016-11-01 | Uber Technologies, Inc. | Integrated clutch steering system |
DE102015122844A1 (de) | 2015-12-27 | 2017-06-29 | Faro Technologies, Inc. | 3D-Messvorrichtung mit Batteriepack |
DE112017000239B4 (de) * | 2016-01-13 | 2022-08-11 | Hitachi Astemo, Ltd. | Lenkvorrichtung |
US10456910B2 (en) * | 2016-01-14 | 2019-10-29 | Purdue Research Foundation | Educational systems comprising programmable controllers and methods of teaching therewith |
US10324463B1 (en) | 2016-01-22 | 2019-06-18 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle operation adjustment based upon route |
US11441916B1 (en) | 2016-01-22 | 2022-09-13 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle trip routing |
US11242051B1 (en) | 2016-01-22 | 2022-02-08 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle action communications |
US10134278B1 (en) | 2016-01-22 | 2018-11-20 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle application |
US10395332B1 (en) | 2016-01-22 | 2019-08-27 | State Farm Mutual Automobile Insurance Company | Coordinated autonomous vehicle automatic area scanning |
US10493936B1 (en) | 2016-01-22 | 2019-12-03 | State Farm Mutual Automobile Insurance Company | Detecting and responding to autonomous vehicle collisions |
US11719545B2 (en) | 2016-01-22 | 2023-08-08 | Hyundai Motor Company | Autonomous vehicle component damage and salvage assessment |
US9836973B2 (en) | 2016-01-27 | 2017-12-05 | International Business Machines Corporation | Selectively controlling a self-driving vehicle's access to a roadway |
US10328949B2 (en) * | 2016-01-28 | 2019-06-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Sensor blind spot indication for vehicles |
US9896123B2 (en) * | 2016-01-29 | 2018-02-20 | Tk Holdings Inc. | Systems and methods for detecting steering wheel contact |
US10269075B2 (en) | 2016-02-02 | 2019-04-23 | Allstate Insurance Company | Subjective route risk mapping and mitigation |
US9645581B1 (en) * | 2016-02-04 | 2017-05-09 | Zerotech (Shenzhen) Intelligence Robot Co., Ltd | Method and apparatus for navigating unmanned aerial vehicle |
US10037031B2 (en) | 2016-02-05 | 2018-07-31 | Ford Global Technologies, Llc | Vehicle operation states |
US10787176B2 (en) * | 2016-02-19 | 2020-09-29 | A Truly Electric Car Company | Plug-compatible interface between cars and their human and/or computer drivers |
JP2017154542A (ja) * | 2016-02-29 | 2017-09-07 | 株式会社デンソー | 運転切替装置 |
US20170253237A1 (en) * | 2016-03-02 | 2017-09-07 | Magna Electronics Inc. | Vehicle vision system with automatic parking function |
US10322682B2 (en) | 2016-03-03 | 2019-06-18 | Steering Solutions Ip Holding Corporation | Steering wheel with keyboard |
US9616896B1 (en) | 2016-03-15 | 2017-04-11 | Uber Technologies, Inc. | System for switching control of an autonomous vehicle |
US9580080B1 (en) * | 2016-03-15 | 2017-02-28 | Uber Technologies, Inc. | Drive-by-wire control system |
JP7035300B2 (ja) | 2016-03-15 | 2022-03-15 | アクチエボラゲット エレクトロルックス | ロボット清掃デバイス、ロボット清掃デバイスにおける、断崖検出を遂行する方法、コンピュータプログラム、およびコンピュータプログラム製品 |
US9488984B1 (en) * | 2016-03-17 | 2016-11-08 | Jeff Williams | Method, device and system for navigation of an autonomous supply chain node vehicle in a storage center using virtual image-code tape |
US20170277182A1 (en) * | 2016-03-24 | 2017-09-28 | Magna Electronics Inc. | Control system for selective autonomous vehicle control |
DE102016105876A1 (de) * | 2016-03-31 | 2017-10-05 | Connaught Electronics Ltd. | Elektronisches Steuergerät für ein Fahrzeug mit separater Datenverbindung, Assistenzsystem, Fahrzeug sowie Verfahren |
US11045059B2 (en) * | 2016-03-31 | 2021-06-29 | Miraikikai, Inc. | Self-propelled robot |
WO2017173553A1 (en) | 2016-04-08 | 2017-10-12 | A&K Robotics Inc. | Autoscrubber convertible between manual and autonomous operation |
US9896096B2 (en) | 2016-04-11 | 2018-02-20 | David E. Newman | Systems and methods for hazard mitigation |
US10496102B2 (en) | 2016-04-11 | 2019-12-03 | Steering Solutions Ip Holding Corporation | Steering system for autonomous vehicle |
US10255648B2 (en) | 2016-04-14 | 2019-04-09 | Eric John Wengreen | Self-driving vehicle systems and methods |
US9429947B1 (en) | 2016-04-14 | 2016-08-30 | Eric John Wengreen | Self-driving vehicle systems and methods |
DE102017108692A1 (de) | 2016-04-25 | 2017-10-26 | Steering Solutions Ip Holding Corporation | Steuerung einer elektrischen Servolenkung unter Verwendung von Systemzustandsvorhersagen |
US10152891B2 (en) | 2016-05-02 | 2018-12-11 | Cnh Industrial America Llc | System for avoiding collisions between autonomous vehicles conducting agricultural operations |
EP3454707B1 (de) | 2016-05-11 | 2020-07-08 | Aktiebolaget Electrolux | Reinigungsroboter |
JP6569596B2 (ja) * | 2016-05-20 | 2019-09-04 | トヨタ自動車株式会社 | 車両 |
US10685391B2 (en) | 2016-05-24 | 2020-06-16 | International Business Machines Corporation | Directing movement of a self-driving vehicle based on sales activity |
US10351161B2 (en) | 2016-05-27 | 2019-07-16 | Steering Solutions Ip Holding Corporation | Steering column with manual retraction |
DE102016209203A1 (de) * | 2016-05-27 | 2017-11-30 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum automatischen Anhalten eines Kraftfahrzeugs, das zumindest zeitweise automatisch auf einer Fahrroute geführt wird |
US10372126B2 (en) * | 2016-05-27 | 2019-08-06 | Cnh Industrial America Llc | Dynamic in-cabin autonomous vehicle control systems |
US11580870B2 (en) | 2016-05-27 | 2023-02-14 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methodologies for providing training on warnings in a vehicle |
US10073460B2 (en) * | 2016-06-10 | 2018-09-11 | Trimble Inc. | Providing auto-guidance of a mobile machine without requiring a graphical interface display |
US10421476B2 (en) | 2016-06-21 | 2019-09-24 | Steering Solutions Ip Holding Corporation | Self-locking telescope actuator of a steering column assembly |
US11378954B2 (en) * | 2016-06-28 | 2022-07-05 | Faraday&Future Inc. | Multi-processor SoC system |
US10457313B2 (en) | 2016-06-28 | 2019-10-29 | Steering Solutions Ip Holding Corporation | ADAS wheel locking device |
JP6778872B2 (ja) * | 2016-06-28 | 2020-11-04 | パナソニックIpマネジメント株式会社 | 運転支援装置及び運転支援方法 |
US20180005052A1 (en) * | 2016-07-01 | 2018-01-04 | Uber Technologies, Inc. | Static object detection for operating autonomous vehicle |
US10509407B2 (en) * | 2016-07-01 | 2019-12-17 | Samsung Electronics Co., Ltd. | Apparatus and method for a vehicle platform |
US20180012196A1 (en) | 2016-07-07 | 2018-01-11 | NextEv USA, Inc. | Vehicle maintenance manager |
US10007264B2 (en) * | 2016-07-14 | 2018-06-26 | Baidu Usa Llc | Autonomous vehicle human driver takeover mechanism using electrodes |
EP3269680B1 (de) | 2016-07-14 | 2020-09-30 | Toyota Material Handling Manufacturing Sweden AB | Flurförderer |
EP3269678B1 (de) | 2016-07-14 | 2019-03-06 | Toyota Material Handling Manufacturing Sweden AB | Flurförderer |
EP3269679B1 (de) | 2016-07-14 | 2019-09-11 | Toyota Material Handling Manufacturing Sweden AB | Flurförderer |
US10363958B2 (en) | 2016-07-26 | 2019-07-30 | Steering Solutions Ip Holding Corporation | Electric power steering mode determination and transitioning |
US10232856B2 (en) | 2016-07-28 | 2019-03-19 | Ford Global Technologies, Llc | Vehicle user-communication system and method |
US10160477B2 (en) | 2016-08-01 | 2018-12-25 | Steering Solutions Ip Holding Corporation | Electric power steering column assembly |
US9928734B2 (en) | 2016-08-02 | 2018-03-27 | Nio Usa, Inc. | Vehicle-to-pedestrian communication systems |
RU2705480C1 (ru) | 2016-08-08 | 2019-11-07 | Ниссан Мотор Ко., Лтд. | Способ управления и устройство управления транспортного средства с функцией автоматического вождения |
US10059318B2 (en) | 2016-08-11 | 2018-08-28 | Goodrich Corporation | Emergency brake system with dual input |
JP6412070B2 (ja) * | 2016-08-12 | 2018-10-24 | トヨタ自動車株式会社 | 運転支援装置及び運転支援方法 |
US10543852B2 (en) * | 2016-08-20 | 2020-01-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Environmental driver comfort feedback for autonomous vehicle |
US20190212732A1 (en) * | 2016-08-22 | 2019-07-11 | Sony Corporation | Vehicle and control method |
US10189496B2 (en) | 2016-08-22 | 2019-01-29 | Steering Solutions Ip Holding Corporation | Steering assembly having a telescope drive lock assembly |
AU2017320593B2 (en) | 2016-08-29 | 2021-10-28 | Crinklaw Farm Services | Robotic agricultural system and method |
CN107701712B (zh) * | 2016-08-30 | 2021-10-01 | 宁波高发汽车控制系统股份有限公司 | 一种无人驾驶汽车换挡器执行机构控制系统 |
US10663965B2 (en) * | 2016-09-01 | 2020-05-26 | Ford Global Technologies, Llc | Permissions for partially autonomous vehicle operation |
US10884426B2 (en) * | 2016-09-06 | 2021-01-05 | Advanced Intelligent Systems Inc. | Mobile work station for transporting a plurality of articles |
US10384708B2 (en) | 2016-09-12 | 2019-08-20 | Steering Solutions Ip Holding Corporation | Intermediate shaft assembly for steer-by-wire steering system |
US10160473B2 (en) | 2016-09-13 | 2018-12-25 | Steering Solutions Ip Holding Corporation | Steering column decoupling system |
US10650621B1 (en) | 2016-09-13 | 2020-05-12 | Iocurrents, Inc. | Interfacing with a vehicular controller area network |
US10093322B2 (en) | 2016-09-15 | 2018-10-09 | International Business Machines Corporation | Automatically providing explanations for actions taken by a self-driving vehicle |
CN109789779B (zh) * | 2016-09-16 | 2022-03-04 | 富士胶片株式会社 | 投影型显示装置及其控制方法 |
US10643256B2 (en) | 2016-09-16 | 2020-05-05 | International Business Machines Corporation | Configuring a self-driving vehicle for charitable donations pickup and delivery |
US10346152B2 (en) | 2016-09-20 | 2019-07-09 | At&T Intellectual Property I, L.P. | Facilitating use of a universal integrated circuit card (UICC) for secure device updates |
US10144383B2 (en) | 2016-09-29 | 2018-12-04 | Steering Solutions Ip Holding Corporation | Steering wheel with video screen and airbag |
EP3519937A4 (de) | 2016-09-30 | 2020-04-29 | Staples, Inc. | Hybrides modulares speicherabrufsystem |
US10589931B2 (en) | 2016-09-30 | 2020-03-17 | Staples, Inc. | Hybrid modular storage fetching system |
US10683171B2 (en) | 2016-09-30 | 2020-06-16 | Staples, Inc. | Hybrid modular storage fetching system |
US10399591B2 (en) | 2016-10-03 | 2019-09-03 | Steering Solutions Ip Holding Corporation | Steering compensation with grip sensing |
US11155267B2 (en) | 2016-10-11 | 2021-10-26 | Samsung Electronics Co., Ltd. | Mobile sensor platform |
US10239552B2 (en) | 2016-10-14 | 2019-03-26 | Steering Solutions Ip Holding Corporation | Rotation control assembly for a steering column |
US9829883B1 (en) | 2016-10-17 | 2017-11-28 | Ford Global Technologies, Llc | Trailer backup assist system having remote control and user sight management |
US10481602B2 (en) * | 2016-10-17 | 2019-11-19 | Steering Solutions Ip Holding Corporation | Sensor fusion for autonomous driving transition control |
CN107972660A (zh) * | 2016-10-19 | 2018-05-01 | 法乐第(北京)网络科技有限公司 | 一种自动驾驶系统 |
CN109906608B (zh) | 2016-11-01 | 2021-03-12 | 松下电器(美国)知识产权公司 | 显示方法以及显示装置 |
US9823657B1 (en) | 2016-11-02 | 2017-11-21 | Smartdrive Systems, Inc. | Measuring operator readiness and readiness testing triggering in an autonomous vehicle |
US9663118B1 (en) * | 2016-11-02 | 2017-05-30 | Smartdrive Systems, Inc. | Autonomous vehicle operator performance tracking |
US10528055B2 (en) * | 2016-11-03 | 2020-01-07 | Ford Global Technologies, Llc | Road sign recognition |
DE102016221690A1 (de) * | 2016-11-04 | 2018-05-09 | Audi Ag | Verfahren zum Übertragen von Datenpaketen zwischen einem Ethernet und einem Bussystem in einem Kraftfahrzeug sowie Gatewayvorrichtung und Kraftfahrzeug |
US11024160B2 (en) | 2016-11-07 | 2021-06-01 | Nio Usa, Inc. | Feedback performance control and tracking |
US10694357B2 (en) | 2016-11-11 | 2020-06-23 | Nio Usa, Inc. | Using vehicle sensor data to monitor pedestrian health |
US10410064B2 (en) | 2016-11-11 | 2019-09-10 | Nio Usa, Inc. | System for tracking and identifying vehicles and pedestrians |
US10708547B2 (en) | 2016-11-11 | 2020-07-07 | Nio Usa, Inc. | Using vehicle sensor data to monitor environmental and geologic conditions |
US10310605B2 (en) | 2016-11-15 | 2019-06-04 | Steering Solutions Ip Holding Corporation | Haptic feedback for steering system controls |
US10421475B2 (en) | 2016-11-15 | 2019-09-24 | Steering Solutions Ip Holding Corporation | Electric actuator mechanism for retractable steering column assembly with manual override |
US10515390B2 (en) | 2016-11-21 | 2019-12-24 | Nio Usa, Inc. | Method and system for data optimization |
US9862403B1 (en) | 2016-11-29 | 2018-01-09 | Steering Solutions Ip Holding Corporation | Manually retractable steering column assembly for autonomous vehicle |
US10351160B2 (en) | 2016-11-30 | 2019-07-16 | Steering Solutions Ip Holding Corporation | Steering column assembly having a sensor assembly |
US10249104B2 (en) | 2016-12-06 | 2019-04-02 | Nio Usa, Inc. | Lease observation and event recording |
US10780915B2 (en) | 2016-12-07 | 2020-09-22 | Steering Solutions Ip Holding Corporation | Vehicle steering system having a user experience based automated driving to manual driving transition system and method |
US10395441B2 (en) | 2016-12-14 | 2019-08-27 | Uber Technologies, Inc. | Vehicle management system |
US10671063B2 (en) | 2016-12-14 | 2020-06-02 | Uatc, Llc | Vehicle control device |
US9811086B1 (en) | 2016-12-14 | 2017-11-07 | Uber Technologies, Inc. | Vehicle management system |
DE102016225516B4 (de) * | 2016-12-20 | 2019-11-14 | Bayerische Motoren Werke Aktiengesellschaft | Messsystem und Messverfahren für ein Fahrzeug |
CN106656712A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市优必选科技有限公司 | 用于总线的异常处理方法、用于机器人的控制器 |
US10259452B2 (en) | 2017-01-04 | 2019-04-16 | International Business Machines Corporation | Self-driving vehicle collision management system |
US10529147B2 (en) | 2017-01-05 | 2020-01-07 | International Business Machines Corporation | Self-driving vehicle road safety flare deploying system |
US10363893B2 (en) | 2017-01-05 | 2019-07-30 | International Business Machines Corporation | Self-driving vehicle contextual lock control system |
CN106878127B (zh) * | 2017-01-09 | 2019-12-31 | 浙江大学 | 带有新型视频监控的水下机器人有线操控系统 |
US10074223B2 (en) | 2017-01-13 | 2018-09-11 | Nio Usa, Inc. | Secured vehicle for user use only |
US9984572B1 (en) | 2017-01-16 | 2018-05-29 | Nio Usa, Inc. | Method and system for sharing parking space availability among autonomous vehicles |
US10471829B2 (en) | 2017-01-16 | 2019-11-12 | Nio Usa, Inc. | Self-destruct zone and autonomous vehicle navigation |
US10031521B1 (en) | 2017-01-16 | 2018-07-24 | Nio Usa, Inc. | Method and system for using weather information in operation of autonomous vehicles |
US10464530B2 (en) | 2017-01-17 | 2019-11-05 | Nio Usa, Inc. | Voice biometric pre-purchase enrollment for autonomous vehicles |
DE102017200655A1 (de) | 2017-01-17 | 2018-07-19 | Audi Ag | Verfahren zum Bereitstellen von aktuatorbasierten Fahrzeugfunktionen in einem Kraftfahrzeug sowie Kraftfahrzeug-Recheneinrichtung und Kraftfahrzeug |
US10286915B2 (en) | 2017-01-17 | 2019-05-14 | Nio Usa, Inc. | Machine learning for personalized driving |
CN110072501B (zh) * | 2017-01-22 | 2021-07-09 | 四川金瑞麒智能科学技术有限公司 | 一种智能轮椅的机械传动控制方法与系统 |
US10838065B2 (en) | 2017-01-26 | 2020-11-17 | The Regents Of The University Of Michigan | Localization using 2D maps which capture vertical structures in 3D point data |
JP6773574B2 (ja) * | 2017-01-30 | 2020-10-21 | ヤンマーパワーテクノロジー株式会社 | 作業車両制御装置 |
DE102017000841A1 (de) * | 2017-01-31 | 2018-08-02 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Starten eines Kraftfahrzeugantriebs |
JP6617726B2 (ja) * | 2017-02-01 | 2019-12-11 | トヨタ自動車株式会社 | 運転制御装置 |
US10897469B2 (en) | 2017-02-02 | 2021-01-19 | Nio Usa, Inc. | System and method for firewalls between vehicle networks |
US10259496B2 (en) | 2017-02-07 | 2019-04-16 | Ford Global Technologies, Llc | Steering-wheel feedback mechanism |
US10538268B2 (en) * | 2017-02-07 | 2020-01-21 | Ford Global Technologies, Llc | Steering-wheel control mechanism for autonomous vehicle |
EP3360757B1 (de) | 2017-02-10 | 2019-10-02 | Volvo Car Corporation | Lenkdrehmomentverwalter für ein verbessertes fahrerassistenzsystem eines strassenfahrzeugs |
US10370022B2 (en) | 2017-02-13 | 2019-08-06 | Steering Solutions Ip Holding Corporation | Steering column assembly for autonomous vehicle |
US10385930B2 (en) | 2017-02-21 | 2019-08-20 | Steering Solutions Ip Holding Corporation | Ball coupling assembly for steering column assembly |
US10220857B2 (en) | 2017-02-23 | 2019-03-05 | Uber Technologies, Inc. | Vehicle control system |
IL250762B (en) * | 2017-02-23 | 2020-09-30 | Appelman Dina | Method and system for unmanned vehicle navigation |
CA3055702A1 (en) * | 2017-03-07 | 2018-09-13 | Nissan Motor Co., Ltd. | Traveling assistance method and driving control device |
US10152060B2 (en) | 2017-03-08 | 2018-12-11 | International Business Machines Corporation | Protecting contents of a smart vault being transported by a self-driving vehicle |
JP6690581B2 (ja) * | 2017-03-09 | 2020-04-28 | オムロン株式会社 | 運転モード切替制御装置、方法およびプログラム |
DE102018105406B4 (de) * | 2017-03-10 | 2022-11-03 | Steering Solutions Ip Holding Corporation | System und verfahren zur lenkungssteuerung für ein autonomes fahrzeug |
EP3375696B1 (de) | 2017-03-17 | 2019-11-20 | Volvo Car Corporation | Lenkdrehmomentverwalter für ein verbessertes fahrerassistenzsystem eines strassenfahrzeugs |
US11087200B2 (en) | 2017-03-17 | 2021-08-10 | The Regents Of The University Of Michigan | Method and apparatus for constructing informative outcomes to guide multi-policy decision making |
EP3378733B1 (de) | 2017-03-20 | 2020-01-15 | Volvo Car Corporation | Vorrichtung und verfahren für situationsabhängige lenkradwinkelsteuerung (had- oder adas) |
US10150432B2 (en) | 2017-03-20 | 2018-12-11 | Ford Global Technologies, Llc | Autonomous vehicle conversion |
EP3378731B1 (de) * | 2017-03-20 | 2020-01-15 | Volvo Car Corporation | Vorrichtung und verfahren für fahreraktivitätsabhängiges lenkradwinkelsteuergerät (adas) |
US10661764B1 (en) | 2017-03-28 | 2020-05-26 | Apple Inc. | Braking system control state transitions |
US10168697B2 (en) | 2017-03-31 | 2019-01-01 | At&T Intellectual Property I, L.P. | Assistance for an autonomous vehicle using crowd-sourced responses |
CN116392096A (zh) * | 2017-04-03 | 2023-07-07 | 提爱思科技股份有限公司 | 生物传感器的配置构造 |
CN106990789B (zh) * | 2017-04-11 | 2021-08-31 | 北京机械设备研究所 | 一种特种环境侦查系统及特种环境的快速侦察方法 |
US10838422B2 (en) * | 2017-04-13 | 2020-11-17 | Panasonic Intellectual Property Corporation Of America | Information processing method and information processing apparatus |
US10449927B2 (en) | 2017-04-13 | 2019-10-22 | Steering Solutions Ip Holding Corporation | Steering system having anti-theft capabilities |
US10317907B2 (en) * | 2017-04-28 | 2019-06-11 | GM Global Technology Operations LLC | Systems and methods for obstacle avoidance and path planning in autonomous vehicles |
US10086809B1 (en) * | 2017-05-02 | 2018-10-02 | Delphi Technologies, Inc. | Automatic braking system |
BE1024929B1 (nl) | 2017-05-09 | 2018-08-13 | Cnh Industrial Belgium Nv | Verbeteringen in of met betrekking tot voertuig/aanhangwagen-combinaties |
US10692365B2 (en) | 2017-06-20 | 2020-06-23 | Cavh Llc | Intelligent road infrastructure system (IRIS): systems and methods |
US20220375336A1 (en) | 2017-05-17 | 2022-11-24 | Cavh Llc | Autonomous Vehicle (AV) Control System with Roadside Unit (RSU) Network |
GB201707973D0 (en) * | 2017-05-18 | 2017-07-05 | Jaguar Land Rover Ltd | A vehicle control system, method and computer program for a vehicle control multilayer architecture |
KR20220025250A (ko) | 2017-06-02 | 2022-03-03 | 에이비 엘렉트로룩스 | 로봇 청소 장치 전방의 표면의 레벨차를 검출하는 방법 |
EP3639167A4 (de) * | 2017-06-16 | 2021-02-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und vorrichtung zur auswahl einer karte für ein bewegtes objekt, system und fahrzeug/roboter |
CN109116861A (zh) * | 2017-06-23 | 2019-01-01 | 无锡飞天侠科技有限公司 | 一种无人机地面控制系统 |
US10234302B2 (en) | 2017-06-27 | 2019-03-19 | Nio Usa, Inc. | Adaptive route and motion planning based on learned external and internal vehicle environment |
US10343698B2 (en) | 2017-06-27 | 2019-07-09 | Uber Technologies, Inc. | Disabling onboard input devices in an autonomous vehicle |
EP3421308B1 (de) * | 2017-06-29 | 2021-08-11 | Volvo Car Corporation | Verfahren und fahrzeug zur aktivierung eines autonomen bremsmanövers |
KR102064220B1 (ko) * | 2017-07-06 | 2020-01-09 | 엘지전자 주식회사 | 차량용 주행 시스템 및 차량 |
US10710633B2 (en) | 2017-07-14 | 2020-07-14 | Nio Usa, Inc. | Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles |
US10369974B2 (en) | 2017-07-14 | 2019-08-06 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
US10300789B2 (en) * | 2017-07-25 | 2019-05-28 | Denso International America, Inc. | Vehicle heads-up display |
US10837790B2 (en) | 2017-08-01 | 2020-11-17 | Nio Usa, Inc. | Productive and accident-free driving modes for a vehicle |
US10585429B2 (en) * | 2017-08-01 | 2020-03-10 | Dynamic Research, Inc. | Robotic steering controller for optimal free response evaluation |
EP3441837B1 (de) * | 2017-08-07 | 2023-11-15 | Nokia Solutions and Networks Oy | Unbemannte fahrzeuge |
WO2019035997A1 (en) | 2017-08-17 | 2019-02-21 | Sri International | ADVANCED CONTROL SYSTEM HAVING MULTIPLE CONTROL PARADIGMS |
US20190066548A1 (en) * | 2017-08-22 | 2019-02-28 | Ford Global Technologies, Llc | Vehicle emblem assembly |
US11112793B2 (en) | 2017-08-28 | 2021-09-07 | Motional Ad Llc | Mixed-mode driving of a vehicle having autonomous driving capabilities |
US20190064805A1 (en) * | 2017-08-28 | 2019-02-28 | nuTonomy Inc. | Mixed-mode driving of a vehicle having autonomous driving capabilities |
US11460842B2 (en) * | 2017-08-28 | 2022-10-04 | Motional Ad Llc | Mixed-mode driving of a vehicle having autonomous driving capabilities |
EP3652721A1 (de) | 2017-09-04 | 2020-05-20 | NNG Software Developing and Commercial LLC | Verfahren und vorrichtung zum sammeln und verwenden von sensordaten von einem fahrzeug |
DE102017215592A1 (de) * | 2017-09-05 | 2019-03-07 | Volkswagen Aktiengesellschaft | Fahrassistenzvorrichtung eingerichtet zur teilautonomen und vollautonomen Führung eines Kraftfahrzeugs, Verfahren und Kraftfahrzeug |
US11430331B2 (en) * | 2017-09-08 | 2022-08-30 | Uatc, Llc | Power and thermal management systems and methods for autonomous vehicles |
CN109509210B (zh) * | 2017-09-15 | 2020-11-24 | 百度在线网络技术(北京)有限公司 | 障碍物跟踪方法和装置 |
DE102017216457A1 (de) * | 2017-09-18 | 2019-03-21 | Robert Bosch Gmbh | Verfahren zur Bestimmung einer maximalen Geschwindigkeit eines Fahrzeugs während eines Einparkmanövers |
JP6989210B2 (ja) | 2017-09-26 | 2022-01-05 | アクチエボラゲット エレクトロルックス | ロボット清掃デバイスの移動の制御 |
US10635109B2 (en) | 2017-10-17 | 2020-04-28 | Nio Usa, Inc. | Vehicle path-planner monitor and controller |
KR102106875B1 (ko) * | 2017-10-24 | 2020-05-08 | 엔에이치엔 주식회사 | 차량학습에 기반한 자율주행 중 사고 회피 시스템 및 방법 |
US10606274B2 (en) | 2017-10-30 | 2020-03-31 | Nio Usa, Inc. | Visual place recognition based self-localization for autonomous vehicles |
US10935978B2 (en) | 2017-10-30 | 2021-03-02 | Nio Usa, Inc. | Vehicle self-localization using particle filters and visual odometry |
US10717412B2 (en) | 2017-11-13 | 2020-07-21 | Nio Usa, Inc. | System and method for controlling a vehicle using secondary access methods |
DE102017220559A1 (de) * | 2017-11-17 | 2019-05-23 | Robert Bosch Gmbh | Konzept zum Laden eines elektrischen Energiespeichers eines Kraftfahrzeugs |
EP3486140B1 (de) | 2017-11-20 | 2021-01-20 | Steering Solutions IP Holding Corporation | Sichtbasiertes aktives lenksystem |
US11347218B2 (en) * | 2017-11-21 | 2022-05-31 | Shawn Wang | Portable universal autonomous driving system |
KR102037324B1 (ko) * | 2017-11-30 | 2019-10-28 | 엘지전자 주식회사 | 자율주행 차량 및 그 제어 방법 |
US10562526B2 (en) | 2017-12-11 | 2020-02-18 | Ford Global Technologies, Llc | Vehicle component operation |
US10647329B2 (en) | 2017-12-12 | 2020-05-12 | Uatc, Llc | Disengaging autonomous control of vehicle |
EP3729766A1 (de) | 2017-12-24 | 2020-10-28 | Arilou Information Security Technologies Ltd. | System und verfahren zur tunnel-basierten erkennung von schadprogrammen |
US10967875B2 (en) | 2018-01-05 | 2021-04-06 | Honda Motor Co., Ltd. | Control system for autonomous all-terrain vehicle (ATV) |
US11073838B2 (en) | 2018-01-06 | 2021-07-27 | Drivent Llc | Self-driving vehicle systems and methods |
US10299216B1 (en) | 2018-01-06 | 2019-05-21 | Eric John Wengreen | Self-driving vehicle actions in response to a low battery |
US10274950B1 (en) | 2018-01-06 | 2019-04-30 | Drivent Technologies Inc. | Self-driving vehicle systems and methods |
US10303181B1 (en) | 2018-11-29 | 2019-05-28 | Eric John Wengreen | Self-driving vehicle systems and methods |
US10890909B2 (en) | 2018-01-09 | 2021-01-12 | International Business Machines Corporation | Automobile driving mode determination |
CN108182817A (zh) * | 2018-01-11 | 2018-06-19 | 北京图森未来科技有限公司 | 自动驾驶辅助系统、路侧端辅助系统和车载端辅助系统 |
DE102018200388A1 (de) * | 2018-01-11 | 2019-07-11 | Robert Bosch Gmbh | Verfahren zum Betreiben eines Fahrzeugs mit einem in eine Querdynamik des Fahrzeugs eingreifenden Fahrerassistenzsystem |
US11022971B2 (en) * | 2018-01-16 | 2021-06-01 | Nio Usa, Inc. | Event data recordation to identify and resolve anomalies associated with control of driverless vehicles |
US10962973B2 (en) | 2018-01-30 | 2021-03-30 | Uatc, Llc | Autonomous vehicle safe stop |
WO2019156956A2 (en) | 2018-02-06 | 2019-08-15 | Cavh Llc | Intelligent road infrastructure system (iris): systems and methods |
JP7063652B2 (ja) * | 2018-02-19 | 2022-05-09 | 株式会社デンソーテン | 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法 |
IL276854B2 (en) * | 2018-03-02 | 2024-01-01 | St Eng Land Systems Ltd | Hybrid electronic drive-by-wire system for operating a crawler vehicle |
JP2019155957A (ja) * | 2018-03-07 | 2019-09-19 | 本田技研工業株式会社 | 車両用制御装置及び車両 |
WO2019173611A1 (en) * | 2018-03-07 | 2019-09-12 | Mile Auto, Inc. | Monitoring and tracking mode of operation of vehicles to determine services |
US11027419B2 (en) | 2018-03-14 | 2021-06-08 | Fedex Corporate Services, Inc. | Modular auxiliary power module for a modular autonomous bot apparatus that transports an item being shipped |
US10875566B2 (en) | 2018-03-22 | 2020-12-29 | Steering Solutions Ip Holding Corporation | Stow release assembly for a manually adjustable steering column assembly |
US10676085B2 (en) | 2018-04-11 | 2020-06-09 | Aurora Innovation, Inc. | Training machine learning model based on training instances with: training instance input based on autonomous vehicle sensor data, and training instance output based on additional vehicle sensor data |
US11550061B2 (en) | 2018-04-11 | 2023-01-10 | Aurora Operations, Inc. | Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data |
US11687092B2 (en) | 2018-04-23 | 2023-06-27 | Sharkninja Operating Llc | Techniques for bounding cleaning operations of a robotic surface cleaning device within a region of interest |
WO2019204931A1 (en) * | 2018-04-25 | 2019-10-31 | Flir Unmanned Aerial Systems Ulc | Systems and methods for communicating with payload on an unmanned vehicle |
US10908609B2 (en) * | 2018-04-30 | 2021-02-02 | Toyota Research Institute, Inc. | Apparatus and method for autonomous driving |
US10899006B2 (en) * | 2018-05-01 | 2021-01-26 | X Development Llc | Robot navigation using 2D and 3D path planning |
AU2019266266A1 (en) | 2018-05-09 | 2020-11-12 | Cavh Llc | Systems and methods for driving intelligence allocation between vehicles and highways |
US11641790B2 (en) | 2018-05-09 | 2023-05-09 | Deere & Company | Method of planning a path for a vehicle having a work tool and a vehicle path planning system |
US10369966B1 (en) | 2018-05-23 | 2019-08-06 | Nio Usa, Inc. | Controlling access to a vehicle using wireless access devices |
CN108480950B (zh) * | 2018-05-24 | 2023-07-25 | 刘玉华 | 一种用于自动更换部件的设备 |
JP7059806B2 (ja) * | 2018-05-29 | 2022-04-26 | 株式会社オートネットワーク技術研究所 | 車載通信システム、車載中継装置、通信プログラム及び通信方法 |
US11104334B2 (en) | 2018-05-31 | 2021-08-31 | Tusimple, Inc. | System and method for proximate vehicle intention prediction for autonomous vehicles |
US20190367019A1 (en) * | 2018-05-31 | 2019-12-05 | TuSimple | System and method for proximate vehicle intention prediction for autonomous vehicles |
US11842642B2 (en) | 2018-06-20 | 2023-12-12 | Cavh Llc | Connected automated vehicle highway systems and methods related to heavy vehicles |
WO2020012241A1 (en) | 2018-07-08 | 2020-01-16 | Nng Software Developing And Commercial Llc. | A method and apparatus for optimal navigation to multiple locations |
WO2020014227A1 (en) * | 2018-07-10 | 2020-01-16 | Cavh Llc | Route-specific services for connected automated vehicle highway systems |
US11373122B2 (en) | 2018-07-10 | 2022-06-28 | Cavh Llc | Fixed-route service system for CAVH systems |
EP3824404A4 (de) | 2018-07-20 | 2022-04-27 | May Mobility, Inc. | Multiperspektivisches system und verfahren zur verhaltensrichtlinienauswahl durch einen autonomem agenten |
US10614709B2 (en) | 2018-07-24 | 2020-04-07 | May Mobility, Inc. | Systems and methods for implementing multimodal safety operations with an autonomous agent |
US10466057B1 (en) | 2018-07-30 | 2019-11-05 | Wesley Edward Schwie | Self-driving vehicle systems and methods |
US10974756B2 (en) | 2018-07-31 | 2021-04-13 | Steering Solutions Ip Holding Corporation | Clutch device latching system and method |
KR20210040082A (ko) | 2018-08-06 | 2021-04-12 | 클라크 이큅먼트 컴파니 | 강화 로더 제어 |
US11738643B2 (en) | 2019-02-27 | 2023-08-29 | Clark Equipment Company | Display integrated into door |
US11084410B1 (en) | 2018-08-07 | 2021-08-10 | Staples, Inc. | Automated guided vehicle for transporting shelving units |
US11590997B1 (en) | 2018-08-07 | 2023-02-28 | Staples, Inc. | Autonomous shopping cart |
US11630447B1 (en) | 2018-08-10 | 2023-04-18 | Staples, Inc. | Automated guided vehicle for transporting objects |
US10683067B2 (en) * | 2018-08-10 | 2020-06-16 | Buffalo Automation Group Inc. | Sensor system for maritime vessels |
US10765026B2 (en) | 2018-08-17 | 2020-09-01 | Microsoft Technology Licensing, Llc | Automated data center |
CN112534780B (zh) * | 2018-08-23 | 2024-02-23 | 精密种植有限责任公司 | 用于机器和机具之间的通信的可扩展网络架构 |
EP3617828A1 (de) | 2018-08-28 | 2020-03-04 | Nilfisk A/S | Autonomes oberflächenbehandlungsfahrzeug mit schnellwandmodus |
US10858033B2 (en) * | 2018-08-29 | 2020-12-08 | Steering Solutions Ip Holding Corporation | Driver intervention detection during steering column assembly power stowing and unstowing |
EP3799618B1 (de) | 2018-08-30 | 2022-10-26 | Elta Systems Ltd. | Verfahren zum navigieren eines fahrzeugs und system dafür |
CN109186463B (zh) * | 2018-09-04 | 2021-12-07 | 浙江梧斯源通信科技股份有限公司 | 应用于可移动机器人的防跌落方法 |
US11487300B2 (en) * | 2018-09-13 | 2022-11-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Home improvement store autonomous workhorse |
US10289922B1 (en) | 2018-09-18 | 2019-05-14 | Eric John Wengreen | System for managing lost, mislaid, or abandoned property in a self-driving vehicle |
US10471804B1 (en) | 2018-09-18 | 2019-11-12 | Drivent Llc | Self-driving vehicle systems and methods |
US10282625B1 (en) | 2018-10-01 | 2019-05-07 | Eric John Wengreen | Self-driving vehicle systems and methods |
US10223844B1 (en) | 2018-09-18 | 2019-03-05 | Wesley Edward Schwie | Self-driving vehicle systems and methods |
US10493952B1 (en) | 2019-03-21 | 2019-12-03 | Drivent Llc | Self-driving vehicle systems and methods |
US10479319B1 (en) | 2019-03-21 | 2019-11-19 | Drivent Llc | Self-driving vehicle systems and methods |
CN109035740A (zh) * | 2018-09-27 | 2018-12-18 | 上海节卡机器人科技有限公司 | 机器人的控制方法、装置和远程控制系统 |
US10900792B2 (en) | 2018-10-22 | 2021-01-26 | Drivent Llc | Self-driving vehicle systems and methods |
US10832569B2 (en) | 2019-04-02 | 2020-11-10 | Drivent Llc | Vehicle detection systems |
US11221621B2 (en) | 2019-03-21 | 2022-01-11 | Drivent Llc | Self-driving vehicle systems and methods |
US11644833B2 (en) | 2018-10-01 | 2023-05-09 | Drivent Llc | Self-driving vehicle systems and methods |
US10794714B2 (en) | 2018-10-01 | 2020-10-06 | Drivent Llc | Self-driving vehicle systems and methods |
KR102574289B1 (ko) * | 2018-10-08 | 2023-09-05 | 주식회사 에이치엘클레무브 | 후진 주행 제어 장치 및 그 후진 주행 제어 방법 |
US10240938B1 (en) | 2018-10-22 | 2019-03-26 | Drivent Technologies Inc. | Self-driving vehicle systems and methods |
WO2020086557A1 (en) * | 2018-10-24 | 2020-04-30 | Discovery Robotics | Apparatus and method for operations of a robotic platform |
JP6998287B2 (ja) * | 2018-10-29 | 2022-02-10 | ヤンマーパワーテクノロジー株式会社 | 走行車両 |
US10481606B1 (en) | 2018-11-01 | 2019-11-19 | Drivent Llc | Self-driving vehicle systems and methods |
US10286908B1 (en) | 2018-11-01 | 2019-05-14 | Eric John Wengreen | Self-driving vehicle systems and methods |
US11086319B2 (en) | 2018-11-02 | 2021-08-10 | Aurora Operations, Inc. | Generating testing instances for autonomous vehicles |
US11209821B2 (en) | 2018-11-02 | 2021-12-28 | Aurora Operations, Inc. | Labeling autonomous vehicle data |
US11163312B2 (en) | 2018-11-02 | 2021-11-02 | Aurora Operations, Inc. | Removable automotive LIDAR data collection POD |
US11829143B2 (en) | 2018-11-02 | 2023-11-28 | Aurora Operations, Inc. | Labeling autonomous vehicle data |
US11403492B2 (en) | 2018-11-02 | 2022-08-02 | Aurora Operations, Inc. | Generating labeled training instances for autonomous vehicles |
US11256263B2 (en) | 2018-11-02 | 2022-02-22 | Aurora Operations, Inc. | Generating targeted training instances for autonomous vehicles |
US11613041B1 (en) | 2018-11-08 | 2023-03-28 | Scepaniak IP Holdings, LLC | Coping nailer |
US11214967B1 (en) | 2018-11-08 | 2022-01-04 | Scepaniak IP Holdings, LLC | Roof rock spreader |
US11465279B2 (en) * | 2018-11-29 | 2022-10-11 | X Development Llc | Robot base position planning |
US10942516B2 (en) | 2018-12-12 | 2021-03-09 | Valeo Schalter Und Sensoren Gmbh | Vehicle path updates via remote vehicle control |
US10908604B2 (en) * | 2018-12-14 | 2021-02-02 | Valeo Schalter Und Sensoren Gmbh | Remote operation of vehicles in close-quarter environments |
US11543531B2 (en) | 2018-12-19 | 2023-01-03 | Fca Us Llc | Semi-automatic LIDAR annotation system for autonomous driving |
DE102018222556A1 (de) * | 2018-12-20 | 2020-06-25 | Robert Bosch Gmbh | Notstop-Verfahren und Vorrichtung für ein zumindest teilweise automatisiert fahrendes Fahrzeug |
US10816635B1 (en) | 2018-12-20 | 2020-10-27 | Autonomous Roadway Intelligence, Llc | Autonomous vehicle localization system |
US10820349B2 (en) | 2018-12-20 | 2020-10-27 | Autonomous Roadway Intelligence, Llc | Wireless message collision avoidance with high throughput |
US10525881B1 (en) * | 2018-12-21 | 2020-01-07 | Robert Bosch Gmbh | Wheel orientation warning system |
US11180069B2 (en) | 2018-12-31 | 2021-11-23 | Staples, Inc. | Automated loading of delivery vehicles using automated guided vehicles |
US11119487B2 (en) | 2018-12-31 | 2021-09-14 | Staples, Inc. | Automated preparation of deliveries in delivery vehicles using automated guided vehicles |
US11323548B2 (en) | 2019-01-20 | 2022-05-03 | Arilou Information Security Technologies Ltd. | System and method for data compression based on data position in frames structure |
CN111464978A (zh) * | 2019-01-22 | 2020-07-28 | 岳秀兰 | 主次无线设备通过物联网连接建立的车辆远程驾驶体系 |
US10744976B1 (en) | 2019-02-04 | 2020-08-18 | Drivent Llc | Self-driving vehicle systems and methods |
US10377342B1 (en) | 2019-02-04 | 2019-08-13 | Drivent Technologies Inc. | Self-driving vehicle systems and methods |
US10969470B2 (en) | 2019-02-15 | 2021-04-06 | May Mobility, Inc. | Systems and methods for intelligently calibrating infrastructure devices using onboard sensors of an autonomous agent |
US11285988B1 (en) | 2019-02-18 | 2022-03-29 | Apple Inc. | Passenger vehicle and retractable driver input devices thereof |
DE102019202182A1 (de) * | 2019-02-19 | 2020-08-20 | Zf Friedrichshafen Ag | Verfahren zum Steuern eines Nutzfahrzeugs |
WO2020170237A1 (en) | 2019-02-19 | 2020-08-27 | Edgy Bees Ltd. | Estimating real-time delay of a video data stream |
US11338848B2 (en) * | 2019-02-20 | 2022-05-24 | Caterpillar Inc. | Alignment of steering controller angle and machine steering angle for transitioning between manual and autonomous operating modes |
CN109814573B (zh) * | 2019-02-21 | 2022-08-02 | 百度在线网络技术(北京)有限公司 | 无人驾驶控制方法、装置、设备及计算机可读存储介质 |
US11367361B2 (en) * | 2019-02-22 | 2022-06-21 | Kyndryl, Inc. | Emulating unmanned aerial vehicle (UAV) |
CL2019000600A1 (es) * | 2019-03-11 | 2019-05-17 | Univ Chile | Un método de asistencia para la tele-operación de vehículos en túneles, por ejemplo, túneles mineros |
US10809734B2 (en) | 2019-03-13 | 2020-10-20 | Mobile Industrial Robots A/S | Route planning in an autonomous device |
WO2020189831A1 (ko) * | 2019-03-21 | 2020-09-24 | 엘지전자 주식회사 | 자율주행 차량의 모니터링 및 제어 방법 |
JP7287048B2 (ja) * | 2019-03-27 | 2023-06-06 | セイコーエプソン株式会社 | ロボット |
JP7123845B2 (ja) * | 2019-03-29 | 2022-08-23 | 本田技研工業株式会社 | 車両制御システム |
US11124401B1 (en) | 2019-03-31 | 2021-09-21 | Staples, Inc. | Automated loading of delivery vehicles |
WO2020214787A1 (en) * | 2019-04-16 | 2020-10-22 | University Of Louisville Research Foundation, Inc. | Adaptive robotic nursing assistant |
KR20200128242A (ko) * | 2019-04-24 | 2020-11-12 | 현대자동차주식회사 | 차량의 주행 제어 장치 및 방법 |
US10807527B1 (en) | 2019-05-01 | 2020-10-20 | Smartdrive Systems, Inc. | Systems and methods for verifying whether vehicle operators are paying attention |
US20200356090A1 (en) * | 2019-05-09 | 2020-11-12 | Gm Cruise Holdings Llc | Client control for an autonomous vehicle ridesharing service |
US11861957B2 (en) | 2019-05-09 | 2024-01-02 | Argo AI, LLC | Time master and sensor data collection for robotic system |
US11518349B2 (en) * | 2019-06-06 | 2022-12-06 | Caterpillar Inc. | Automatic break application for emergency stop |
DE102019208546A1 (de) * | 2019-06-12 | 2020-12-17 | Continental Reifen Deutschland Gmbh | Reifenaufbauanlage und Verfahren zum Aufbauen eines Reifens |
US10820182B1 (en) | 2019-06-13 | 2020-10-27 | David E. Newman | Wireless protocols for emergency message transmission |
US10713950B1 (en) | 2019-06-13 | 2020-07-14 | Autonomous Roadway Intelligence, Llc | Rapid wireless communication for vehicle collision mitigation |
US10939471B2 (en) | 2019-06-13 | 2021-03-02 | David E. Newman | Managed transmission of wireless DAT messages |
US11711238B2 (en) | 2019-06-21 | 2023-07-25 | Stevyn Pompelio | Methods for operator control unit and payload communication |
US11358593B2 (en) | 2019-07-09 | 2022-06-14 | King Fahd University Of Petroleum And Minerals | Dual direction accident prevention and assistive braking system |
US11087477B2 (en) * | 2019-07-29 | 2021-08-10 | Honda Motor Co., Ltd. | Trajectory prediction |
JP7344044B2 (ja) * | 2019-08-13 | 2023-09-13 | 株式会社Subaru | 車両用運転支援装置 |
JP7389582B2 (ja) * | 2019-08-21 | 2023-11-30 | 株式会社Subaru | 車両用運転支援装置 |
US11422570B2 (en) | 2019-08-27 | 2022-08-23 | Ford Global Technologies, Llc | Systems and methods for managing a transportation device fleet using teleoperation commands |
US11932306B2 (en) | 2019-09-14 | 2024-03-19 | Honda Motor Co., Ltd. | Trajectory planner |
US11927674B2 (en) * | 2019-09-16 | 2024-03-12 | Honda Motor Co., Ltd. | System and method for providing a comprehensive trajectory planner for a person-following vehicle |
KR20220068239A (ko) * | 2019-09-20 | 2022-05-25 | 소나투스, 인코포레이티드 | 추가 차량 통신 제어를 위한 시스템, 방법, 및 장치 |
US11538287B2 (en) * | 2019-09-20 | 2022-12-27 | Sonatus, Inc. | System, method, and apparatus for managing vehicle data collection |
JP7305274B2 (ja) * | 2019-09-25 | 2023-07-10 | 日立建機株式会社 | 建設機械 |
JP7173944B2 (ja) * | 2019-10-08 | 2022-11-16 | 株式会社クボタ | 電動作業車 |
DE102019216156A1 (de) * | 2019-10-21 | 2021-04-22 | Zf Active Safety Gmbh | Steuerungssystem und Steuerungsverfahren |
US20210122385A1 (en) * | 2019-10-28 | 2021-04-29 | Pony Ai Inc. | Systems and methods for emergency bus protection in an autonomous vehicle |
KR20220097381A (ko) | 2019-11-12 | 2022-07-07 | 클라크 이큅먼트 컴파니 | 도어에 통합된 디스플레이 |
KR20190134554A (ko) | 2019-11-15 | 2019-12-04 | 엘지전자 주식회사 | 동적 장애물을 식별하는 방법 및 이를 구현한 로봇 |
US11385058B2 (en) * | 2019-11-26 | 2022-07-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems, vehicles, and methods for detecting and mapping off-road obstacles |
US11318865B2 (en) * | 2019-12-13 | 2022-05-03 | Uatc, Llc | Autonomous vehicle having a configurable passenger seat |
JP7272262B2 (ja) * | 2019-12-25 | 2023-05-12 | トヨタ自動車株式会社 | 車両の代替制動装置 |
IT202000000025A1 (it) * | 2020-01-02 | 2021-07-02 | Alba Robot Srl | Dispositivo per la movimentazione autonoma di apparati a rotelle e relativo metodo di installazione |
US20210243941A1 (en) * | 2020-02-07 | 2021-08-12 | Ag Leader Technology | Planter Obstruction Monitoring And Associated Devices And Methods |
US11126165B2 (en) | 2020-02-11 | 2021-09-21 | Uatc, Llc | Vehicle computing system cooling systems |
JP6937856B2 (ja) * | 2020-02-13 | 2021-09-22 | 本田技研工業株式会社 | 運転支援装置および車両 |
US11772583B2 (en) | 2020-03-06 | 2023-10-03 | Sonatus, Inc. | System, method, and apparatus for managing vehicle automation |
US11225228B2 (en) * | 2020-03-11 | 2022-01-18 | Baidu Usa Llc | Method for enhancing in-path obstacle detection with safety redundancy autonomous system |
US11592299B2 (en) | 2020-03-19 | 2023-02-28 | Mobile Industrial Robots A/S | Using static scores to control vehicle operations |
US11538343B2 (en) | 2020-03-23 | 2022-12-27 | Toyota Motor North America, Inc. | Automatic warning of atypical audio indicating a transport event |
US11443624B2 (en) | 2020-03-23 | 2022-09-13 | Toyota Motor North America, Inc. | Automatic warning of navigating towards a dangerous area or event |
US11720398B2 (en) | 2020-03-31 | 2023-08-08 | Ford Global Technologies, Llc | Harvesting vehicle hardware accelerators and GPU computing capabilities when idle |
US11685049B2 (en) | 2020-04-22 | 2023-06-27 | Boston Dynamics, Inc. | Robot localization using variance sampling |
BR112022023157A2 (pt) * | 2020-05-14 | 2023-04-04 | Raven Ind Inc | Sistemas de monitoramento de obstáculos e métodos para os mesmos |
US11608066B1 (en) | 2020-05-19 | 2023-03-21 | Waymo Llc | Responding to input on a brake pedal of a brake by wire system for an autonomous vehicle |
US11352023B2 (en) | 2020-07-01 | 2022-06-07 | May Mobility, Inc. | Method and system for dynamically curating autonomous vehicle policies |
WO2022015764A1 (en) * | 2020-07-13 | 2022-01-20 | Brain Corporation | Systems and methods for engaging brakes on a robotic device |
CN111959269A (zh) * | 2020-07-20 | 2020-11-20 | 易显智能科技有限责任公司 | 一种油门控制器、车辆安全防护系统和方法以及车辆 |
WO2022061560A1 (zh) * | 2020-09-23 | 2022-03-31 | 上海西邦电气有限公司 | 一种应用于激光清障仪的设备安全防护方法 |
US20220089167A1 (en) * | 2020-09-24 | 2022-03-24 | Nuro, Inc. | Methods and Apparatus for Providing State Estimation in Autonomous Vehicles |
US11206092B1 (en) | 2020-11-13 | 2021-12-21 | Ultralogic 5G, Llc | Artificial intelligence for predicting 5G network performance |
US20220174866A1 (en) * | 2020-12-04 | 2022-06-09 | Scythe Robotics, Inc. | Autonomous lawn mower |
US11229063B1 (en) | 2020-12-04 | 2022-01-18 | Ultralogic 5G, Llc | Early disclosure of destination address for fast information transfer in 5G |
CN114620019B (zh) * | 2020-12-08 | 2023-08-15 | 山东新松工业软件研究院股份有限公司 | 一种四驱开发平台及其制动系统和制动方法 |
CN112666858B (zh) * | 2020-12-11 | 2024-02-06 | 珠海格力电器股份有限公司 | 一种机器人的控制装置及机器人 |
JP2023553980A (ja) | 2020-12-14 | 2023-12-26 | メイ モビリティー,インコーポレイテッド | 自律車両安全プラットフォームシステム及び方法 |
JP2024500672A (ja) | 2020-12-17 | 2024-01-10 | メイ モビリティー,インコーポレイテッド | 自律エージェントの環境表現を動的に更新するための方法およびシステム |
US11932213B2 (en) * | 2021-03-26 | 2024-03-19 | Toyota Research Institute, Inc. | System and method for controlling one or more brakes of a vehicle |
IT202100007709A1 (it) | 2021-03-29 | 2022-09-29 | Proxima Robotics S R L | Dispositivo di navigazione autonoma per robot mobili e metodo di realizzazione di tale dispositivo |
US11472436B1 (en) | 2021-04-02 | 2022-10-18 | May Mobility, Inc | Method and system for operating an autonomous agent with incomplete environmental information |
US11622495B2 (en) * | 2021-06-01 | 2023-04-11 | Gint Co., Ltd. | Method of automatically combining farm vehicle and work machine and farm vehicle |
US11565717B2 (en) | 2021-06-02 | 2023-01-31 | May Mobility, Inc. | Method and system for remote assistance of an autonomous agent |
US11623637B2 (en) * | 2021-06-28 | 2023-04-11 | Ford Global Technologies, Llc | Assisted parking maneuvers for vehicles coupled in a towed recharging arrangement |
WO2023073412A1 (en) * | 2021-10-29 | 2023-05-04 | Ptt Exploration And Production Public Company Limited | A method and system for controlling motion of a climbing robot |
CN113928286B (zh) * | 2021-11-25 | 2022-06-24 | 华为数字能源技术有限公司 | 制动模式切换装置和用于车辆的制动控制系统 |
WO2023144523A1 (en) * | 2022-01-25 | 2023-08-03 | Gama Healthcare Ltd | Methods for controlling the movement of a robot for disinfection |
WO2023154568A1 (en) | 2022-02-14 | 2023-08-17 | May Mobility, Inc. | Method and system for conditional operation of an autonomous agent |
US11829155B2 (en) * | 2022-02-15 | 2023-11-28 | EarthSense, Inc. | System and method for navigating under-canopy robots using multi-sensor fusion |
WO2023245227A1 (en) * | 2022-06-19 | 2023-12-28 | Mohideen Farlin Anooz | Vehicle control arrangement |
US20240010209A1 (en) * | 2022-07-06 | 2024-01-11 | Gm Cruise Holdings Llc | Environmental and electromagnetic seal for autonomous vehicle control systems |
US20240036579A1 (en) * | 2022-08-01 | 2024-02-01 | Trimble Inc. | Avoiding collisions with autonomous off-road vehicles |
WO2024038424A1 (en) * | 2022-08-19 | 2024-02-22 | Institut Teknologi Bandung | Manual control to electric signal control tools on container trucks based on hydraulic motors |
CN115469672B (zh) * | 2022-11-02 | 2023-03-07 | 成都铂升科技有限公司 | 一种室内分布式灯光机器人集群控制方法 |
Family Cites Families (132)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6337552B1 (en) | 1999-01-20 | 2002-01-08 | Sony Corporation | Robot apparatus |
DE2715608C3 (de) | 1977-04-07 | 1983-04-28 | Gebr.Claas Maschinenfabrik GmbH, 4834 Harsewinkel | Schaltvorrichtung für Lenkautomaten an landwirtschaftlichen Maschinen |
US4202037A (en) | 1977-04-22 | 1980-05-06 | Der Loos Hendrik Van | Computer microscope apparatus and method for superimposing an electronically-produced image from the computer memory upon the image in the microscope's field of view |
GB2039078B (en) | 1978-12-27 | 1982-11-24 | Ibm | Sampled data servo positioning system |
US4361202A (en) * | 1979-06-15 | 1982-11-30 | Michael Minovitch | Automated road transportation system |
GB2128842B (en) | 1982-08-06 | 1986-04-16 | Univ London | Method of presenting visual information |
DE3404202A1 (de) | 1984-02-07 | 1987-05-14 | Wegmann & Co | Einrichtung zur ferngesteuerten fuehrung von kampfpanzern |
US4579209A (en) | 1984-04-30 | 1986-04-01 | Butterworth Inc. | Clutch and throttle system for remote control of engine speed |
US4791544A (en) * | 1984-09-21 | 1988-12-13 | Veeco Instruments | Regulating control for single-ended switching power supply |
CA1311852C (en) | 1987-01-09 | 1992-12-22 | James R. Allard | Knowledge acquisition tool for automated knowledge extraction |
US4987402A (en) * | 1987-01-21 | 1991-01-22 | Electronic Security Products Of California | Alarm system for sensing and vocally warning of an unauthorized approach towards a protected object or zone |
US5220497A (en) | 1987-11-20 | 1993-06-15 | North American Philips Corp. | Method and apparatus for controlling high speed vehicles |
DE3800077A1 (de) * | 1988-01-05 | 1989-07-13 | Bosch Gmbh Robert | Dezentrale ein/ausgabebaugruppe fuer elektronische steuerungen |
US4945647A (en) * | 1989-03-23 | 1990-08-07 | Allied-Signal Inc. | North finding system |
AU642638B2 (en) | 1989-12-11 | 1993-10-28 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
US5610815A (en) | 1989-12-11 | 1997-03-11 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
US5640323A (en) * | 1990-02-05 | 1997-06-17 | Caterpillar Inc. | System and method for operating an autonomous navigation system |
US5170352A (en) * | 1990-05-07 | 1992-12-08 | Fmc Corporation | Multi-purpose autonomous vehicle with path plotting |
US5227973A (en) * | 1991-02-26 | 1993-07-13 | Siemens Corporate Research, Inc. | Control arbitration system for a mobile robot vehicle |
US5245422A (en) * | 1991-06-28 | 1993-09-14 | Zexel Corporation | System and method for automatically steering a vehicle within a lane in a road |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
DE4200694B4 (de) | 1992-01-14 | 2004-04-29 | Robert Bosch Gmbh | Verfahren zur Geschwindigkeits- und Abstandsregelung eines Fahrzeugs |
DE4392671T1 (de) * | 1992-06-10 | 1995-06-01 | Ford Werke Ag | Kommunikationssystem für Kraftfahrzeuge |
US5563478A (en) * | 1992-08-18 | 1996-10-08 | Nikon Corporation | Drive control device for an ultrasonic motor |
US5455409A (en) * | 1993-08-16 | 1995-10-03 | Texas Digital Systems, Inc. | Apparatus and method for monitoring a plurality of coded articles and for identifying the location of selected articles |
US5662849A (en) * | 1993-09-10 | 1997-09-02 | Fulsz Technologies Ltd. | Method and apparatus for forming compression dosage units within the product package |
JP2944867B2 (ja) | 1993-10-26 | 1999-09-06 | 三菱電機株式会社 | 電動パワーステアリング制御装置 |
US5511147A (en) * | 1994-01-12 | 1996-04-23 | Uti Corporation | Graphical interface for robot |
JP3186401B2 (ja) | 1994-02-10 | 2001-07-11 | 三菱電機株式会社 | 車両用距離データ処理装置 |
DE4415497C1 (de) | 1994-05-03 | 1995-05-24 | Siemens Ag | Wegesuchverfahren für eine selbstbewegliche mobile Einheit |
US5675229A (en) | 1994-09-21 | 1997-10-07 | Abb Robotics Inc. | Apparatus and method for adjusting robot positioning |
DE19507957C1 (de) * | 1995-03-07 | 1996-09-12 | Daimler Benz Ag | Fahrzeug mit optischer Abtasteinrichtung für einen seitlichen Fahrbahnbereich |
US5652849A (en) | 1995-03-16 | 1997-07-29 | Regents Of The University Of Michigan | Apparatus and method for remote control using a visual information stream |
US5873853A (en) * | 1995-05-23 | 1999-02-23 | Baxter International Inc. | Portable pump apparatus for continuous ambulatory peritoneal dialysis and a method for providing same |
US6418324B1 (en) * | 1995-06-01 | 2002-07-09 | Padcom, Incorporated | Apparatus and method for transparent wireless communication between a remote device and host system |
US6053270A (en) * | 1995-11-02 | 2000-04-25 | Honda Giken Kogyo Kabushiki Kaisha | Steering angle correcting system in vehicle |
US6008985A (en) | 1995-11-20 | 1999-12-28 | The Foxboro Company | Industrial field controlling device with controller and expansion modules |
US5794164A (en) | 1995-11-29 | 1998-08-11 | Microsoft Corporation | Vehicle computer system |
US5715902A (en) | 1996-01-29 | 1998-02-10 | The United States Of America As Represented By The Secretary Of The Army | Retrofit unit for vehicle steering mechanism |
JP3581911B2 (ja) | 1996-06-07 | 2004-10-27 | コニカミノルタホールディングス株式会社 | 移動走行車 |
US5831826A (en) | 1996-09-20 | 1998-11-03 | Motorola, Inc. | Heat transfer apparatus suitable for use in a circuit board assembly |
US6185630B1 (en) * | 1997-02-14 | 2001-02-06 | Advanced Micro Devices, Inc. | Device initializing system with programmable array logic configured to cause non-volatile memory to output address and data information to the device in a prescribed sequence |
US6108031A (en) | 1997-05-08 | 2000-08-22 | Kaman Sciences Corporation | Virtual reality teleoperated remote control vehicle |
US6253161B1 (en) * | 1997-07-10 | 2001-06-26 | Universite Laval | Integrated motion vision sensor |
AU9068698A (en) | 1997-07-23 | 1999-02-16 | Horst Jurgen Duschek | Method for controlling an unmanned transport vehicle and unmanned transport vehicle system therefor |
JPH11144185A (ja) | 1997-09-03 | 1999-05-28 | Honda Motor Co Ltd | 自動運転制御誘導システム |
US6198992B1 (en) | 1997-10-10 | 2001-03-06 | Trimble Navigation Limited | Override for guidance control system |
JPH11149315A (ja) | 1997-11-19 | 1999-06-02 | Mitsubishi Heavy Ind Ltd | ロボット制御システム |
US6055042A (en) | 1997-12-16 | 2000-04-25 | Caterpillar Inc. | Method and apparatus for detecting obstacles using multiple sensors for range selective detection |
US5984880A (en) | 1998-01-20 | 1999-11-16 | Lander; Ralph H | Tactile feedback controlled by various medium |
US7152027B2 (en) * | 1998-02-17 | 2006-12-19 | National Instruments Corporation | Reconfigurable test system |
US6233504B1 (en) * | 1998-04-16 | 2001-05-15 | California Institute Of Technology | Tool actuation and force feedback on robot-assisted microsurgery system |
US6356819B1 (en) * | 1998-04-20 | 2002-03-12 | Trimble Navigation Limited | Safety system for guidance control system |
US6243759B1 (en) | 1998-05-08 | 2001-06-05 | International Business Machines Corporation | Method and system for configuring dynamic interfaces |
EP1121245B1 (de) * | 1998-06-18 | 2008-12-24 | Kline & Walker L.L.C. | Automatische vorrichtung zur überwachung von auf abstand zu bedienende ausrüstungen und maschinen weltweit anwendbar |
JP4014731B2 (ja) * | 1998-07-08 | 2007-11-28 | 矢崎総業株式会社 | リングネットワークシステム |
DE19832531A1 (de) * | 1998-07-22 | 2000-02-10 | Bosch Gmbh Robert | Steuerung für eine Mehrzahl von elektrischen Verbrauchern eines Kraftfahrzeugs |
US6088020A (en) | 1998-08-12 | 2000-07-11 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Haptic device |
US6113395A (en) | 1998-08-18 | 2000-09-05 | Hon; David C. | Selectable instruments with homing devices for haptic virtual reality medical simulation |
JP2000094373A (ja) | 1998-09-28 | 2000-04-04 | Katsunori Takahashi | インターネットロボット |
US6259980B1 (en) | 1998-10-21 | 2001-07-10 | Northrop Grumman Corporation | Automated control system for remote vehicles |
US6236916B1 (en) | 1999-03-29 | 2001-05-22 | Caterpillar Inc. | Autoguidance system and method for an agricultural machine |
JP4197209B2 (ja) | 1999-05-21 | 2008-12-17 | 株式会社小松製作所 | 車両の無人走行システム |
CA2377511A1 (en) * | 1999-06-24 | 2001-01-04 | Siemens Aktiengesellschaft | Drive and propulsion system for ships |
US6714121B1 (en) | 1999-08-09 | 2004-03-30 | Micron Technology, Inc. | RFID material tracking method and apparatus |
US6480762B1 (en) | 1999-09-27 | 2002-11-12 | Olympus Optical Co., Ltd. | Medical apparatus supporting system |
WO2001026332A2 (en) | 1999-10-06 | 2001-04-12 | Sensoria Corporation | Apparatus for vehicle internetworks |
JP3595468B2 (ja) * | 1999-11-02 | 2004-12-02 | ペンタックス株式会社 | 双眼鏡とその製造方法 |
US6678155B1 (en) * | 1999-12-14 | 2004-01-13 | Hewlett-Packard Company | Modular system of internet service provider focused computer services |
JP4233723B2 (ja) | 2000-02-28 | 2009-03-04 | 本田技研工業株式会社 | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
US6898492B2 (en) | 2000-03-15 | 2005-05-24 | De Leon Hilary Laing | Self-contained flight data recorder with wireless data retrieval |
US6845297B2 (en) | 2000-05-01 | 2005-01-18 | Irobot Corporation | Method and system for remote control of mobile robot |
AU2001262962A1 (en) | 2000-05-01 | 2001-11-12 | Irobot Corporation | Method and system for remote control of mobile robot |
ATE305150T1 (de) * | 2000-05-17 | 2005-10-15 | Boeing Co | Intuitives fahrzeug und maschinensteuerung |
US6445983B1 (en) | 2000-07-07 | 2002-09-03 | Case Corporation | Sensor-fusion navigator for automated guidance of off-road vehicles |
JP3498910B2 (ja) | 2000-09-05 | 2004-02-23 | 日産自動車株式会社 | 車線追従制御装置 |
DE10047746A1 (de) * | 2000-09-27 | 2002-04-11 | Bayerische Motoren Werke Ag | Verfahren zur Längsregelung eines Fahrzeuges, bei dem Informationen eines Navigationssystems erfasst werden |
GB0030727D0 (en) * | 2000-12-15 | 2001-01-31 | Lumitech Uk Ltd | Methods and kits for detecting kinase activity |
US6633800B1 (en) * | 2001-01-31 | 2003-10-14 | Ainsworth Inc. | Remote control system |
US6604348B2 (en) | 2001-02-06 | 2003-08-12 | Deere & Company | Mower with engine-driven blade and electrical propulsion |
US7024257B2 (en) | 2001-02-09 | 2006-04-04 | Motion Engineering, Inc. | System for motion control, method of using the system for motion control, and computer-readable instructions for use with the system for motion control |
US20020136939A1 (en) * | 2001-02-15 | 2002-09-26 | Grieve M. James | Fuel cell and battery voltage controlling method and system |
DE10129135B4 (de) | 2001-06-16 | 2013-10-24 | Deere & Company | Einrichtung zur Positionsbestimmung eines landwirtschaftlichen Arbeitsfahrzeugs sowie ein landwirtschaftliches Arbeitsfahrzeug mit dieser |
US6434462B1 (en) | 2001-06-28 | 2002-08-13 | Deere & Company | GPS control of a tractor-towed implement |
KR100413684B1 (ko) | 2001-07-05 | 2003-12-31 | 삼성전자주식회사 | 서로 다른 미들웨어를 가진 디바이스들간 통신을 가능하게하는 게이트웨이, 홈네트웍시스템 및 데이터 중계방법 |
US7245632B2 (en) * | 2001-08-10 | 2007-07-17 | Sun Microsystems, Inc. | External storage for modular computer systems |
US20030080772A1 (en) | 2001-08-31 | 2003-05-01 | Davide Giacomini | Programmable compact motor drive module |
US6873911B2 (en) | 2002-02-01 | 2005-03-29 | Nissan Motor Co., Ltd. | Method and system for vehicle operator assistance improvement |
EP1547361B1 (de) * | 2002-09-13 | 2016-04-06 | iRobot Corporation | Navigationssteuersystem für eine robotische einrichtung |
JP3750644B2 (ja) | 2002-09-27 | 2006-03-01 | 日産自動車株式会社 | 車両用運転操作補助装置、車両用運転操作補助方法、およびその方法を適用した車両 |
WO2004029774A2 (en) * | 2002-09-27 | 2004-04-08 | Gounder Manickam A | Vehicle monitoring and reporting system |
DE10245465A1 (de) * | 2002-09-28 | 2004-04-15 | Rexroth Indramat Gmbh | Kommunikationssystem mit anschließbarem Interfaceelement |
CA2503073A1 (en) | 2002-10-31 | 2004-05-21 | Mattel, Inc. | Remote controlled toy vehicle, toy vehicle control system and game using remote controlled toy vehicle |
CA2412815A1 (fr) | 2002-11-27 | 2004-05-27 | Martin Deschambault | Plate-forme robotique mobile et modulaire offrant plusieurs modes de locomotion pour effectuer des mouvements evolues en trois dimensions |
US6927699B2 (en) * | 2002-12-05 | 2005-08-09 | Denso Corporation | Object recognition apparatus for vehicle, and inter-vehicle distance control unit |
DE10258753B4 (de) * | 2002-12-16 | 2006-05-18 | Daimlerchrysler Ag | Verteiltes Steuergerät |
FI115678B (fi) * | 2003-03-25 | 2005-06-15 | Sandvik Tamrock Oy | Järjestely kaivosajoneuvon törmäyksenestoon |
US6813557B2 (en) * | 2003-03-27 | 2004-11-02 | Deere & Company | Method and system for controlling a vehicle having multiple control modes |
US7046166B2 (en) | 2003-04-29 | 2006-05-16 | Rockwell Scientific Licensing, Llc | Modular wireless integrated network sensor (WINS) node with a dual bus architecture |
US6789014B1 (en) | 2003-05-09 | 2004-09-07 | Deere & Company | Direct modification of DGPS information with inertial measurement data |
US6694260B1 (en) | 2003-05-09 | 2004-02-17 | Deere & Company | Inertial augmentation for GPS navigation on ground vehicles |
US6975246B1 (en) | 2003-05-13 | 2005-12-13 | Itt Manufacturing Enterprises, Inc. | Collision avoidance using limited range gated video |
JP4209257B2 (ja) * | 2003-05-29 | 2009-01-14 | 三菱重工業株式会社 | 分散型コントローラとその動作方法、及び、分散型コントローラを備えるフォークリフト |
JP4239689B2 (ja) * | 2003-05-30 | 2009-03-18 | スズキ株式会社 | 車両用警報システム及び車両用警報発生方法 |
US7516244B2 (en) * | 2003-07-02 | 2009-04-07 | Caterpillar Inc. | Systems and methods for providing server operations in a work machine |
US20050021195A1 (en) | 2003-07-21 | 2005-01-27 | Rapistan Systems Advertising Corp. | Dynamic object avoidance with automated guided vehicle |
US6988583B2 (en) | 2003-10-30 | 2006-01-24 | Deere & Company | Electrical steering system for manned or unmanned operation |
JP4311210B2 (ja) | 2004-01-19 | 2009-08-12 | 株式会社デンソー | 車両リアルタイム制御システム、送信ecuおよび受信ecu |
US7123522B2 (en) | 2004-03-10 | 2006-10-17 | Micron Technology, Inc. | Method and apparatus for achieving low power consumption during power down |
US7447593B2 (en) | 2004-03-26 | 2008-11-04 | Raytheon Company | System and method for adaptive path planning |
US20050264998A1 (en) * | 2004-05-25 | 2005-12-01 | 3M Innovative Properties Company | Heat sink assembly |
US6901319B1 (en) | 2004-07-06 | 2005-05-31 | Deere & Company | System and method for controlling a ground vehicle |
DE202004011226U1 (de) * | 2004-07-16 | 2005-08-25 | Dbt Gmbh | Einzelsteuergerät für Schildausbaugestelle |
US7084588B2 (en) | 2004-07-30 | 2006-08-01 | Ballard Power Systems Corporation | Method, apparatus and article for motor control voltage dropout detection |
JP5038589B2 (ja) | 2004-10-04 | 2012-10-03 | 株式会社日立製作所 | ディスクアレイ装置及びその負荷分散方法 |
US7248968B2 (en) | 2004-10-29 | 2007-07-24 | Deere & Company | Obstacle detection using stereo vision |
JP4316477B2 (ja) | 2004-11-18 | 2009-08-19 | パナソニック株式会社 | 移動ロボットの追従方法 |
EP1851728A1 (de) | 2005-02-08 | 2007-11-07 | Seegrid Corporation | Mehrdimensionale wahrscheinlichkeitsraster sowie system und verfahren zu ihrer verwendung |
US7299057B2 (en) | 2005-02-23 | 2007-11-20 | Deere & Company | Vehicular navigation based on site specific sensor quality data |
US7368798B2 (en) * | 2005-03-28 | 2008-05-06 | Akros Silicon Inc. | Integrated DC/DC converter substrate connections |
US20060237968A1 (en) * | 2005-04-20 | 2006-10-26 | Rockwell Scientific Licensing, Llc | High efficiency power converter for energy harvesting devices |
DE112006003044T5 (de) | 2005-10-21 | 2008-10-23 | Deere & Company, Moline | Vielseitiges Robotersteuermodul |
WO2008013568A2 (en) | 2005-12-30 | 2008-01-31 | Irobot Corporation | Autonomous mobile robot |
US8805601B2 (en) | 2006-02-28 | 2014-08-12 | Toyota Jidosha Kabushiki Kaisha | Object path prediction method, apparatus, and program, and automatic operation system |
JP4835489B2 (ja) * | 2007-03-28 | 2011-12-14 | コニカミノルタビジネステクノロジーズ株式会社 | 給紙装置及び画像形成装置 |
KR101461185B1 (ko) * | 2007-11-09 | 2014-11-14 | 삼성전자 주식회사 | 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법 |
CN101651553B (zh) | 2009-09-03 | 2013-02-27 | 华为技术有限公司 | 用户侧组播业务主备保护系统、方法及路由设备 |
WO2015183821A1 (en) | 2014-05-27 | 2015-12-03 | Gentex Corporation | Electrochemical energy storage devices |
AU2014395561B2 (en) | 2014-05-28 | 2019-08-15 | Starview Technologies Pte. Ltd. | Optical transceiver device and method |
US9401367B2 (en) | 2014-09-30 | 2016-07-26 | Wafertech, Llc | Nonvolatile memory cell with improved isolation structures |
US10971724B2 (en) | 2018-10-15 | 2021-04-06 | Global Graphene Group, Inc. | Method of producing electrochemically stable anode particulates for lithium secondary batteries |
JP7389812B2 (ja) | 2019-03-17 | 2023-11-30 | エヌパーバー,インコーポレイテッド | 相互相関のための方法及び装置 |
-
2006
- 2006-10-20 DE DE112006003044T patent/DE112006003044T5/de active Pending
- 2006-10-20 AU AU2006304838A patent/AU2006304838B2/en active Active
- 2006-10-20 AU AU2006306522A patent/AU2006306522B9/en active Active
- 2006-10-20 DE DE112006002894.4T patent/DE112006002894B4/de active Active
- 2006-10-20 WO PCT/US2006/041177 patent/WO2007048003A2/en active Application Filing
- 2006-10-20 WO PCT/US2006/041227 patent/WO2007048029A2/en active Application Filing
- 2006-10-20 WO PCT/US2006/040800 patent/WO2007050406A1/en active Application Filing
- 2006-10-20 GB GB0807131A patent/GB2445507B/en not_active Expired - Fee Related
- 2006-10-20 AU AU2006304812A patent/AU2006304812B2/en active Active
- 2006-10-20 WO PCT/US2006/040801 patent/WO2007050407A1/en active Application Filing
- 2006-10-20 DE DE112006003007.8T patent/DE112006003007B4/de active Active
- 2006-10-20 US US11/584,087 patent/US7894951B2/en active Active
- 2006-10-20 US US11/584,085 patent/US8473140B2/en active Active
- 2006-10-20 US US11/584,097 patent/US8020657B2/en active Active
- 2006-10-20 AU AU2006306523A patent/AU2006306523B2/en active Active
- 2006-10-20 DE DE112006002892.8T patent/DE112006002892B4/de active Active
- 2006-10-20 US US11/584,084 patent/US9043016B2/en active Active
-
2008
- 2008-04-27 IL IL191001A patent/IL191001A/en not_active IP Right Cessation
-
2010
- 2010-12-03 US US12/959,429 patent/US9098080B2/en active Active
-
2011
- 2011-08-18 US US13/212,696 patent/US8874300B2/en active Active
-
2013
- 2013-05-24 US US13/902,026 patent/US20150301532A1/en not_active Abandoned
-
2014
- 2014-08-07 US US14/453,776 patent/US9429944B2/en active Active
Non-Patent Citations (4)
Title |
---|
Cited doc missing |
US PROVISIONAL APPLICATION NO. 60/729445 |
US PROVISIONAL APPLICATION NO. 60/780389 |
www.deere.com |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2622955B2 (de) † | 2012-01-31 | 2021-08-18 | Deere & Company | Landwirtschaftliche Maschine mit einem System zur selbsttätigen Einstellung eines Bearbeitungsparameters und zugehöriges Verfahren |
US20210209367A1 (en) * | 2018-05-22 | 2021-07-08 | Starship Technologies Oü | Method and system for analyzing robot surroundings |
US11741709B2 (en) * | 2018-05-22 | 2023-08-29 | Starship Technologies Oü | Method and system for analyzing surroundings of an autonomous or semi-autonomous vehicle |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112006003007B4 (de) | Systeme und Verfahren zum Vermeiden von Hindernissen | |
DE102017117698B4 (de) | Fahrassistenzvorrichtung für ein Fahrzeug | |
EP3181421B1 (de) | Verfahren und system zur automatischen steuerung eines folgefahrzeugs mit einem vorderfahrzeug | |
EP2722687B1 (de) | Sicherheitsvorrichtung für ein Fahrzeug | |
DE112016007429T5 (de) | Entferntes Betriebssystem, Transportsystem und entferntes Betriebsverfahren | |
EP3218244A1 (de) | Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem | |
DE102015205133A1 (de) | Verfahren und Vorrichtung zum Ermitteln einer Bewegungsplanung für ein zumindest teilweise automatisiertes Fahren eines Fahrzeugs | |
EP3948466A1 (de) | Verfahren und vorrichtung zum teleoperierten fahren eines fahrzeuges | |
DE112018005910T5 (de) | Steuervorrichtung und steuerverfahren, programm und mobiler körper | |
DE102018112145A1 (de) | Steuersystem für autonome fahrzeuge | |
DE102020100749A1 (de) | Ermittlung von wegen für fahrzeuge | |
DE102018215560A1 (de) | Verfahren zum Koordinieren und Überwachen von Objekten | |
DE102017126026A1 (de) | Betrieb einer verkehrsampel | |
DE102019216363A1 (de) | Verfahren zum Bereitstellen eines Signals zur Ansteuerung eines zumindest teilautomatisierten Fahrzeugs | |
DE102019201264A1 (de) | Eine steuervorrichtung und ein verfahren zum verwalten von fahrzeugen | |
DE102021114424A1 (de) | Fahrassistenzvorrichtung, Fahrassistenzverfahren und Fahrassistenzprogramm | |
EP3454084A1 (de) | Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem | |
DE102018133457B4 (de) | Verfahren und System zum Bereitstellen von Umgebungsdaten | |
AU2011239328B2 (en) | Systems and methods for obstacle avoidance | |
DE102019107443A1 (de) | Verfahren und Vorrichtung zum Betrieb eines Roboters mit verbesserter Objektdetektion | |
DE112022003223T5 (de) | Komplementäres steuersystem für ein autonomes fahrzeug | |
WO2022200020A1 (de) | Hinderniserkennung für ein schienenfahrzeug | |
DE112021006760T5 (de) | Verfahren und Systeme zur Erstellung eines Longitudinalplans für ein autonomes Fahrzeug basierend auf dem Verhalten unsicherer Verkehrsteilnehmer | |
DE112020007365T5 (de) | Fahrzeugsteuervorrichtung, fahrzeugsteuerverfahren und programm | |
DE102020127206A1 (de) | Prozess und system zur gemeinsamen nutzung von sensoren für einen autonomen fahrspurwechsel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |
Effective date: 20131004 |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |