WO2000066239A1 - Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees - Google Patents

Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees Download PDF

Info

Publication number
WO2000066239A1
WO2000066239A1 PCT/JP2000/002856 JP0002856W WO0066239A1 WO 2000066239 A1 WO2000066239 A1 WO 2000066239A1 JP 0002856 W JP0002856 W JP 0002856W WO 0066239 A1 WO0066239 A1 WO 0066239A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
internal state
robot
electronic
pet
Prior art date
Application number
PCT/JP2000/002856
Other languages
English (en)
French (fr)
Inventor
Naohiro Yokoo
Yasuhiko Kato
Masakazu Hattori
Masahiro Fujita
Naoyasu Hosonuma
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1020007015057A priority Critical patent/KR20010053322A/ko
Priority to EP00922918A priority patent/EP1092458A1/en
Priority to US09/720,760 priority patent/US6560511B1/en
Publication of WO2000066239A1 publication Critical patent/WO2000066239A1/ja
Priority to US10/411,184 priority patent/US7089083B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8058Virtual breeding, e.g. tamagotchi
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Definitions

  • the present invention relates to an electronic pet system, a network system, a robot, and a storage medium, and more particularly, to an electronic pet system, a network, and the like that enable, for example, an electronic pet to be realized by various devices.
  • Computer systems, robots, and storage media
  • an electronic pet device objects of virtual living things are displayed as electronic pets.
  • the status of the electronic pet such as hunger (hunger) or fatigue
  • the owner is displayed by the owner (electronic pet device). Users) are notified by image or voice.
  • the owner operates, for example, an electronic pet device according to the state of the electronic pet, thereby feeding or playing with the electronic pet.
  • the state (the state of the electronic pet) of the electronic pet changes based on such an owner's response, and the electronic pet is cultivated.
  • the electronic pet grows over time, and therefore, the state of the electronic pet changes over time.
  • the electronic pet device only displays the electronic pet on the display screen, and thus the displayed electronic pet is a virtual existence.
  • an electronic kit for example, a dog electronic kit
  • a conventional electronic kit device for example, an action of barking or waving the tail when wanting to play. Or just stop taking such actions over time, and become tired of barking and waving their tails, much like a real animal pet (eg, a dog). I never sleep.
  • an electronic pet realized by a conventional electronic pet device for example, in response to the behavior of the electronic pet itself, such as barking or waving its tail, the electronic pet uses the electronic pet. The state did not change, and thus the electronic unit did not take any action in response to the change in state caused by the operation of the electronic unit itself. For these reasons, it is also desirable to provide more realistic electronic kits. Disclosure of the invention
  • An object of the present invention is to provide an electronic pet system, a network system, a robot, and a storage medium that can realize a more realistic electronic pet or the like with various devices. I do.
  • an electronic pet system includes an information processing device and a robot.
  • the information processing device includes a transmitting / receiving unit that changes according to input information and can transmit and receive an internal state of the electronic kit serving as information for causing the electronic kit to act, and an image display unit.
  • the processing for realizing the unit by the image display means is performed.
  • Robo The kit has transmitting / receiving means capable of transmitting and receiving the internal state of the electronic kit, which changes according to input information and serves as information for causing the electronic kit to act, and an operating unit operating in the real world. Then, it controls the operation unit and performs processing to realize the electronic pet as a real-world entity.
  • the robot changes the internal state of the electronic socket according to the input information, and operates between the information processing apparatus and the robot that act on the electronic socket based on the internal state.
  • the transmission and reception of the internal state are performed.
  • the information processing device acts based on the internal state sent from the robot, while the robot acts based on the internal state sent from the information processing device.
  • an electronic pet system includes an information processing device and a robot.
  • the information processing apparatus has a wireless transmitting / receiving means capable of wirelessly transmitting / receiving an internal state of the electronic kit, which changes according to input information and serves as information for causing the electronic kit to act, and an image display means. Then, processing for realizing the electronic kit by the image display means is performed.
  • the robot changes according to the input information, and wireless transmission / reception means capable of transmitting / receiving the internal state of the electronic kit wirelessly as information for causing the electronic kit to act.
  • An operating unit that operates, and performs processing for controlling the operating unit to realize the electronic kit as a real-world entity.
  • the robot changes the internal state of the electronic-bet according to the input information, and operates between the information processing device and the robot that act on the electronic-bet based on the internal state. Transmit and receive the internal state by wireless. Then, the information processing device acts based on the internal state sent from the robot, while the robot operates on the information processing device. Act based on the internal state sent from.
  • the network system includes at least one embodying device and a server device.
  • the embodied device includes a transmitting / receiving means capable of transmitting and receiving the internal state of the living object, which changes according to the input information and serves as information for causing the living object to act, and the identification information of the living object. And embody life-form objects.
  • the server device includes a management unit that manages the internal state of the living object and the identification information of the living object, and at least a transmitting and receiving unit that can transmit and receive the internal state and the identification information. Then, the realization device and the server device are connected via the network.
  • the internal state and the identification information of the living object of the realization device are managed in the server device.
  • a network system includes an embodying device and an information processing device.
  • the embodied device has transmitting and receiving means capable of transmitting and receiving the internal state of the living object, which changes according to the input information and serves as information for causing the living object to act, and implements the living object.
  • the information processing device controls the behavior of the living object that is active in the virtual world based on the internal state of the living object, based on the transmitting and receiving means capable of transmitting and receiving the internal state of the living object. Both perform processing to display the virtual world and the life object.
  • the life of an implementation device that is changed according to input information and is used as information for causing an action to appear is determined.
  • the internal state of the living object is transferred to an information processing device that performs at least processing for displaying the virtual world and the living object.
  • the robot according to the present invention stores the internal state of the living object, which changes according to the human power information and serves as information for causing the living object to act, controls the operating unit, A robot that performs processing to embody an object as a real world entity, and controls the behavior of a living object that operates in a virtual world based on the internal state of the robot's living object. At least the internal state is transferred to an information processing device that performs processing for displaying at least a virtual world and a living object.
  • Such a robot is changed in accordance with input information, and an internal state, which is information for causing an action to appear, is converted into an information processing device that performs processing for displaying at least a virtual world and a living object.
  • the recording medium according to the present invention is a storage medium which stores data usable in an information processing apparatus, and which is detachable from a slot provided in the information processing apparatus. It has indicating means to indicate the correct loading position when it is loaded into the car.
  • FIG. 1 is a block diagram showing an outline of an embodiment of an electronic kit system to which the present invention is applied.
  • FIG. 2 is a diagram showing a more specific configuration example of the electronic pet system.
  • FIG. 3 is a block diagram showing a configuration example of a main body of the electronic kit system.
  • FIG. 4 is a block diagram illustrating an example of a hardware configuration of the virtual electronic device.
  • FIG. 5 is a block diagram showing an example of a hardware configuration of a pet-type robot.
  • FIG. 6 is a perspective view showing a specific configuration of the external shape of the pet type robot.
  • FIG. 7 is a block diagram showing a more specific circuit configuration of the pet type robot.
  • FIG. 8 is a block diagram showing a configuration of the controller.
  • FIG. 9 is a block diagram showing the configuration of the emotion / instinct model unit.
  • FIG. 10 is a block diagram showing an emotion group in the emotion / instinct model section.
  • FIG. 11 is a block diagram showing a configuration of an emotion / instinct model unit provided with intensity increasing / decreasing means.
  • FIG. 12 is a block diagram showing a configuration of an action determining mechanism unit and the like used for describing generation of action command information.
  • Figure 13 is a diagram showing the state transition of a finite established automaton of the behavior model.
  • FIG. 14 is a diagram showing a state transition table.
  • FIG. 15 is a diagram illustrating a graph of a posture transition in the posture transition mechanism unit.
  • FIG. 16 is a diagram illustrating a specific example of a posture transition graph.
  • FIG. 17 is a perspective view showing a schematic configuration of a pet type robot.
  • FIGS. 18A and 18B are diagrams used to explain the case where the basic posture is adopted and the posture is changed between the whole and the part.
  • Fig. 19 is a diagram used to explain the case where the current posture is the whole and the target motion is in the part, and the target motion is executed after temporarily transitioning to the basic posture.
  • FIG. 20 is a diagram used to describe a case where a current posture is in a part and a target motion is performed as a whole, and a transition is once made to a basic posture, and then a target motion is executed.
  • FIG. 21 is a diagram showing the pet characteristic information stored in the individual information storage unit (IC card).
  • FIG. 22 is a diagram used to explain the color-coded IC card.
  • FIG. 23 is a diagram used for describing a stick-shaped IC card that is color-coded and has an arrow mark added thereto.
  • FIG. 24 is a diagram used to explain a stick-like IC force that is color-coded and to which a line indicating a boundary position is added.
  • Figure 25 is a diagram used to illustrate a stick-like IC force correctly loaded in a slot.
  • FIG. 26 is a diagram used to explain an example of a label attached to a sticky IC card.
  • FIGS. 27A and B are diagrams showing the bottom and side surfaces of a stick-shaped IC force.
  • FIG. 28 is a diagram illustrating a connection example according to the second embodiment of this invention.
  • FIG. 29 is a schematic diagram of a main part of a jet-type robot according to the second embodiment.
  • FIG. 3 is a block diagram showing a hardware configuration.
  • FIG. 30 is a front view showing the external configuration of the virtual electronic kit device according to the second embodiment.
  • FIG. 31 is a block diagram showing a hardware configuration of a main part of the virtual electronic device according to the second embodiment.
  • FIG. 32 is a block diagram showing a connection example in which the virtual electronic device and the robot are connected by a USB cable.
  • FIG. 33 is a block diagram showing a connection example in which a virtual electronic socket device and a socket type robot are connected using infrared rays.
  • FIG. 34 is a block diagram showing a connection example in which a virtual electronic socket device and a socket-type robot are connected using wireless communication.
  • FIG. 35 is a block diagram showing a connection example in which a virtual electronic socket device and a socket type robot are connected using a Bluetooth module.
  • Fig. 36 is a block diagram showing a connection example in which a pet-type robot and a personal computer are connected by a USB cable, and the personal computer is connected to the Internet.
  • FIG. 37 is a block diagram showing a connection example in which the robot is connected to a personal computer using infrared rays, and the personal computer is connected to the Internet.
  • FIG. 38 is a block diagram showing a connection example in which a personal computer and a personal computer are connected by wireless and a personal computer is connected to the Internet.
  • FIG. 39 is a block diagram showing a connection example in which a robot and a personal computer are connected using a Bluetooth module, and the personal computer is connected to the Internet.
  • FIG. 40 is a diagram showing a flow when the packet characteristic information is transferred from the virtual electronic device to the packet-type robot.
  • FIG. 41 is a diagram showing a flow when the pet characteristic information is transferred from the pet type robot to the virtual electronic device.
  • FIG. 42 is a diagram showing a flow in a case where the packet feature information is not transferred between the robot and the virtual electronic device.
  • FIG. 43 is a diagram showing the data format of the connection request signal, the connection permission signal, and the reception end signal.
  • FIG. 44 is a diagram illustrating an example of a system configuration in a case where an electronic pet is managed by a pet sharing server.
  • FIG. 45 is a block diagram illustrating an example of a hardware configuration of a pet robot and a virtual electronic device in a system configuration in which an electronic device is managed by a shared server.
  • FIG. 46 is a diagram used to explain a specific example in a case where an electronic packet is deposited and received in a shared server.
  • FIG. 47 is a diagram conceptually illustrating an example in which an electronic packet and a user's avatar exist in a virtual world.
  • FIG. 48 shows an example of a hardware configuration of a pet-type robot and a virtual electronic device in a system configuration in which an electronic device is managed by a shared server.
  • FIG. 5 is a block diagram showing a state in which the virtual electronic device and the virtual electronic device are connected to the Internet using a Bluetooth module.
  • FIG. 49 is a block diagram showing a detailed configuration of a system in a case where an electronic kit and a user's avatar are present in a virtual world.
  • Figure 50 shows the structure of the client PC used in the system of Figure 49. It is a block diagram showing an example.
  • FIG. 51 is a diagram used to describe the flow of processing from browsing a homepage of a website providing VRML content to downloading VRML content to a client PC in the system of FIG. 49.
  • FIG. 52 is a diagram used to explain the flow of processing up to the interpretation and execution of the VRML 2.0 file by the client PC and the inquiry of the URL of the shared server in the system of FIG. 49.
  • FIG. 53 is a diagram used to explain the flow of processing in which a plurality of client PCs receive data related to a three-dimensional object via a shared server to realize a multi-user environment.
  • FIG. 1 shows an electronic kit system according to a first embodiment to which the present invention is applied (in the present specification, a system refers to a system in which a plurality of devices are logically aggregated, It does not matter whether this device is in the same housing or not).
  • the electronic pet system includes an individual information storage unit 1 and a main unit 2 as shown in FIG.
  • an animal that is a living entity is thought to consist of a body and a soul that dwells in the body and controls the work of the mind.
  • the individual information storage unit 1 of the electronic kit system corresponds to such a soul of an animal, and is configured as hardware in the electronic kit, and the main unit 2 is such a meat of the animal. It corresponds to the body and is configured as software in the electronic kit.
  • the individual information storage unit 1 expresses the characteristics of the electronic pet (features of the emotion and the body), but can be said to function as the soul of the electronic pet.
  • the main body 2 expresses the action (action) of the electronic pet, but embodies the physical or virtual body of the electronic pet, and has the physical or virtual body.
  • the function of the main unit 2 is performed based on the characteristics of the electronic unit included in the individual information storage unit 1. Therefore, the individual information storage unit 1 can be referred to as a core of the electronic unit. .
  • the individual information storage section 1 can be withdrawn from the body portion 2, also other body part 2 2 2 is mounted on ... '(harboring) that have been made so that it is.
  • the main unit 2 to which the individual information storage unit 1 is not attached does not function as an electronic pet.
  • the electronic kit is in a so-called shell state.
  • the other main body in which the individual information storage unit 1 is housed functions as an electronic unit having the original characteristics as it is.
  • the soul of the electronic pet is able to change bodies.
  • FIG. 2 shows a more specific configuration example of the electronic pet system of FIG.
  • the individual information storage unit 1 in FIG. 1 is realized by, for example, an integrated circuit (IC) card 21 or the like.
  • the IC card 21 has, for example, a built-in stamp flash memory or the like, and stores instinct and emotion feature amounts of electronic packets and configuration information of the main body (to be referred to as pet feature information hereinafter) as described later. I do.
  • the main unit 2 in FIG. 1 is realized by, for example, a virtual electronic socket device 22 and a 2-kit robot 23.
  • the virtual electronic device 22 includes a portable information processing device that performs processing for displaying a virtual electronic device, and a slot 22 for mounting an IC card 21. A.
  • the pet-type robot 23 is a robot in the shape of an electronic socket, and also has a slot 23A for mounting an IC card 21.
  • a four-legged robot is taken as an example of a pet-type robot.
  • Robots Robots with wings, wheels, wheels, footless types, and other types of robots that can take any form by combining or deforming various parts There is no particular limitation, and the present invention is applicable to various types of robots.
  • Both the virtual electronic socket device 22 and the socket robot 23 function as a main body of the electronic socket, and do not cause an action by themselves. That is, the virtual electronic pet device 22 and the pet-type robot 23 function as an electronic device by mounting the IC card 21. In other words, in the case of the virtual electronic device 22, an electronic pet is displayed on the monitor, and the electronic device displayed on the monitor is stored in the IC card 21. Take action based on feature information. Similarly, the pet robot 23 causes an action based on the packet feature information stored in the IC card 21.
  • FIG. 3 shows an example of an electrical configuration of the main body 2 of FIG.
  • the main body 2 will be described in further detail later as a form applied to the virtual electronic socket device 22 and the socket type robot 23.
  • the I / F (Interface) 10 corresponds to the slot 23 of the virtual electronic pet device 22 in FIG. 2, the slot 23 A of the robot 23, and the individual information storage unit. Functions as an interface for exchanging data between 1 and main unit 2. That is, the I / F 10 reads out information (pet feature information) representing the instinct and emotional characteristics of the electronic tablet and the configuration of the main body from the individual information storage unit 1, and the internal state calculation unit 11 1 To supply. Further, the I / F 10 writes information obtained as a result of the predetermined calculation in the internal state calculation unit 11 into the individual information storage unit 1 and updates the storage content.
  • information pet feature information
  • the I / F 10 writes information obtained as a result of the predetermined calculation in the internal state calculation unit 11 into the individual information storage unit 1 and updates the storage content.
  • the internal state calculation unit 11 is supplied with the cut feature information from the I / F 10, and is also supplied with inputs from the external input unit 12 and the time input unit 13. Has been made. Further, a specific action of the electronic unit, which is obtained in the behavior conversion unit 15, is also fed back to the internal state calculation unit 11.
  • the internal state calculation unit 11 stores the model of emotion and instinct stored in the model storage unit 14 into the I / F 10, the external input unit 12, the time input unit 13, or the behavior conversion unit 1. Drives in response to input from 5 Update state.
  • the internal state of the electronic pet is related to emotion and instinct information included in the packet feature information from the I / F 10 as described later, and the updated internal state is the I / F 10 It is written to the individual information storage unit 1 via Also, the internal state calculation unit 11 determines an operation (conceptual operation) to be performed by the electronic pet based on the updated internal state, and instructs to perform the operation (conceptual operation). The instruction to perform the operation (operation instruction) is output to the behavior conversion unit 15 that performs control to output the actual behavior.
  • the external input unit 12 is configured to supply a stimulus given from the outside of the user or the environment to the internal state calculation unit 11.
  • the external input unit 12 includes a keyboard (or a switch or a button), a microphone (microphone), and a voice recognition device. The operation performed by the user to take care of the electronic unit and the uttered voice are supplied to the internal state calculation unit 11 as electric signals.
  • the external input unit 12 includes a keyboard, a microphone, a voice recognition device, a photoelectric conversion element, an image recognition device, and a sensor (for example, The operation performed by the user to take care of the electronic kit and the voice produced by the user are converted into electric signals, which are supplied to the internal state calculation unit 11, and other objects and surroundings. Information such as temperature is supplied to the internal state calculator 11.
  • the time input unit 13 measures the time (including the date), and supplies the time (current time) to the internal state calculation unit 11.
  • the model storage unit 14 stores electronic pet emotions and instinct models (emotions). -Instinct model). For example, joy, sadness, anger, surprise, fear, and disgust are set as emotions of the electronic kit.
  • the model storage unit 14 stores models of these emotions (for example, these emotions).
  • a calculation formula for calculating the parameter that expresses the emotion of the subject is stored.
  • the instinct of the electronic device for example, a desire for exercise, a desire for love, an appetite, and a curiosity are set, and the model storage unit 14 also stores models of these instinct. .
  • the state of emotion and the state of instinct constitute the internal state of the electronic unit.
  • the main body 2 has the same configuration of emotion and instinct models regardless of whether it is the virtual electronic pet device 22 or the pet-type robot 23. Thus, even if the IC card 21 is replaced between the virtual electronic device 22 and the robot 23, the characteristics and actions of the electronic pet are different. It does not change in the thing of the thing.
  • the behavior conversion unit 15 is a command (action instruction) for giving a conceptual action command from the internal state calculation unit 11 to a specific action (for example, action, motion, posture) according to the main unit 2. , And supplies it to the output unit 16 and feeds it back to the internal state calculation unit 11.
  • the output unit 16 is configured to output according to the action command from the behavior conversion unit 15. That is, the output unit 16 causes the electronic unit to perform a function in accordance with the action command from the behavior conversion unit 15.
  • the output unit 16 is connected to a monitor or a voice synthesizer (for example, a rule voice synthesizer).
  • the output of the output unit 16 changes, for example, the display of the electronic tablet or outputs a cry.
  • the output unit 16 may be a motor that drives members corresponding to a foot, a torso, a head, a tail, etc., or a voice synthesizer. And an operation unit such as a speaker. Therefore, the output of the output unit 16 is to rotate a predetermined mode or output a cry, for example.
  • FIG. 4 shows a hardware configuration example of the virtual electronic device 22.
  • the CPU (Central Processing Unit) 31 performs various processes according to a program stored in a ROM (Read Only Memory) 32.
  • the evening timer circuit 31A counts a clock (not shown) and, based on the count value, generates an evening interrupt to the CPU 31 every predetermined unit time (for example, 100 ms). Has been made.
  • the ROM 32 stores programs to be executed by the CPU 31 and data necessary for executing the programs.
  • a RAM (Random Access Memory) 33 stores data necessary for the operation of the CPU 31.
  • the IZF 34 functions as an interface between the CPU 31 and the A / D converter 36, operation unit 37, IC card connector 38, DZA converter 39, and liquid crystal controller 41. It has been done.
  • the CPU 31, ROM 32, RAM 33, and I / F 34 are connected to one another via a bus (address bus, data bus, etc.).
  • the microphone (microphone) 35 converts the sound input thereto (including, for example, the sound of a whistle and other sounds) into a sound signal as an analog electric signal and supplies the sound signal to the A / D converter 36 It has been made like that.
  • the A / D converter 36 performs A / D conversion of an analog audio signal from the microphone 35 and outputs the digital audio signal to the CPU 31 via the I / F 34.
  • the feature amount is extracted by performing linear prediction analysis on the audio signal, and further, based on, for example, an HMM (Hidden Markov Model) method. It is designed to perform voice recognition.
  • a program executed by the CPU 31 for performing speech recognition and a model of a word to be subjected to speech recognition are stored in, for example, the ROM 32.
  • a model of a word used by the owner to speak to the pet is stored as a model of the word to be subjected to speech recognition. Words that can be remembered include “kora”, “good girl”, “good morning”, “good night”, “hand”, “sitting”, “what are you doing”, etc. .
  • the acoustic analysis method is not limited to linear prediction analysis, and the speech recognition method is not limited to the HMM method.
  • the operation unit 37 includes various buttons and keys, and supplies a signal corresponding to an operation from a user to the CPU 31 from the I / F 34. As a result, the CPU 31 recognizes the buttons and keys operated by the user. You will be able to understand.
  • the operation unit 37 can be used to say, for example, a “scratch” button operated when scolding an electronic pet, a “praise” button operated when praising, or “good morning” or “good night”.
  • Various inputs to the electronic tablet such as the "greeting” button, which is equivalent to a button, and the "hand” button or the “sit down” button operated when commanding a hand or sitting, for example. Has a button for giving
  • the IC card connector 38 is provided in the slot 22A (FIG. 2) of the virtual electronic device 22 and is used when the IC card 21 is inserted into the slot 22A.
  • the IC card 21 and the CPU 31 are electrically connected via the I / F 34.
  • the CPU 31 reads / writes data from / to the IC card 21 via the I / F 34 and the connector 38 for the IC card. Further, the CPU 31 can detect whether or not the IC card 21 is attached.
  • the D / A converter 39 converts the digital audio signal supplied from the CPU 31 via the I / F 34 from digital to analog, and supplies the analog audio signal to the speaker 40 as an analog audio signal.
  • the speaker 40 has a built-in amplifier and amplifies and outputs audio from the D / A converter 39.
  • the CPU 31 generates, for example, the sound of an electronic kit or other necessary voice by voice synthesis, and outputs the generated voice to the D / A converter 39 via the I / F 34. It is made to do.
  • a program for performing voice synthesis and data necessary for voice synthesis are stored in, for example, the ROM 32.
  • the LCD controller 41 is connected to the CPU 31 via the I / F 34. It is controlled to display various images (for example, electronic tablet images) and characters on the liquid crystal display section 42.
  • the liquid crystal display section 42 displays an image, characters, and the like according to the control of the liquid crystal controller 41.
  • the ROM 32 stores a program for displaying images and characters on the liquid crystal display section 42 by controlling the liquid crystal controller 41, and the CPU 31 executes this program. As a result, images, characters, and the like are displayed on the liquid crystal display section 42.
  • a hardware configuration example of the pet type robot 23 will be described. ⁇ An example of the hardware configuration of the robot 23 is shown in Fig. 5.c In Fig. 5, the parts corresponding to those in the virtual electronic pet device 22 in Fig. 4 are the same. Are attached.
  • the pet-type robot 23 is a virtual electronic kit device except that a liquid crystal controller 41 and a liquid crystal display unit 42 are replaced with a motor 51 and a drive mechanism 52. It has basically the same configuration as 22.
  • the motor 51 is controlled by the CPU 31 via the I / F 34 to drive the drive mechanism 52.
  • the drive mechanism 52 constitutes, for example, a head, a foot, a torso, a tail, or the like as a movable part of the pet-type robot 23 and is driven by the motor 51.
  • the I / F 34 and the IC card connector 38 in FIGS. 4 and 5 correspond to the I / F 10 in FIG. 3, and the CPU 31 and ROM 32 in FIGS. 3 corresponds to the internal state calculation unit 11 and the behavior conversion unit 15.
  • the working unit 37 corresponds to the external input unit 12 in FIG.
  • the evening circuit 31A in FIGS. 4 and 5 corresponds to the time input unit 13 in FIG. 3, and the ROM 32 in FIGS. 4 and 5 is stored in the model storage unit 14 in FIG. Corresponding.
  • the pet type robot 23 will be described in detail. As shown in FIG. 6, the whole of the pet-type robot 23 (appearance) has a head 61 corresponding to the head, a torso 62 corresponding to the torso, and four legs. The foot portions 63 A, 63 B, 63 C, 63 D and the tail portion 64 corresponding to the tail are connected to each other.
  • the pet-type robot 23 having such a structure is a real quadruped animal by moving the head 61, the feet 63 A to 63 D, and the tail 64 with respect to the body 62. Works like this.
  • the pet type robot 23 has a slot for mounting the IC card 21.
  • the head 61 has an image recognition unit 71 composed of, for example, a CCD (Charge Coupled Device) camera, which corresponds to the eye and captures an image, and the ears, which collect sound, as shown in FIG.
  • a microphone 72 and a speaker 3 corresponding to a mouth and emitting sound are mounted at predetermined positions, respectively.
  • the head 61 is contacted with a remote controller receiving unit 74 for receiving a command transmitted from a user via a remote controller (not shown), and a hand of a user.
  • a light sensor 75 for detection and an LED (Light Emitting Diode) 76 as a light emitting means are mounted.
  • a battery 77 is attached to the body 62 at a position corresponding to the belly.
  • an electronic circuit (not shown) for controlling the operation of the entire robot 23 is housed therein.
  • the connecting portions of the tails 64 are connected by respective actuators 78 A to 78 N, and are driven based on the control of an electronic circuit housed inside the body 62. I have. In this way, the pilot-type robot 23 drives the respective actuators 78 A to 78 N to swing the head 61 up, down, left and right, and swing the tail 64. Or move the feet 63A-63D to walk or run to make them perform like a real quadruped.
  • Such a pet-type robot 23 changes an internal state such as an emotion or an instinct based on input information such as surrounding information and internal information (for example, remaining battery information).
  • the internal state is stored in the IC card 21.
  • the pet-type robot 23 based on the changed internal state, has a head 61, a torso 62, a foot 63A to 63D, a tail 64, and a tail 64. 8A to 78N), and realizes an electronic pet in the real world.
  • a head 61 includes a microphone 72 and a command receiving unit 80 including a remote controller receiving unit 74.
  • An external sensor 81 comprising an image recognition unit 71 and a sunset sensor 75, a speaker 73, and an LED 76.
  • the body 62 has a notch 77 and a control for controlling the operation of the entire robot 23 inside the body 77.
  • Controller 82 and an internal sensor 85 composed of a battery sensor 83 for detecting the remaining amount of the battery 77 and a heat sensor 84 for detecting the heat generated inside the jet-type robot 23.
  • a battery sensor 83 for detecting the remaining amount of the battery 77
  • a heat sensor 84 for detecting the heat generated inside the jet-type robot 23.
  • the command receiving section 80 is for receiving a command from the user to the pet-type robot 23, for example, a command such as "walk", “down”, “follow the ball”, etc. 72 and a remote controller receiving section 74.
  • the remote controller receiving section 74 receives a desired command input by a user operating a remote controller (not shown). For example, transmission of a command from a remote controller is performed by infrared light.
  • the remote controller receiving section 74 receives the infrared light, generates a received signal S 1 A, and sends it to the controller 82.
  • the remote controller is not limited to the case where infrared light is used, and it is also possible to give a command to the pet robot 23 depending on the musical scale.
  • the pet-type robot 23 performs, for example, a process corresponding to a musical scale from a remote controller input from the microphone 72.
  • Microphone 7 2 issues a voice user in accordance with the desired commands, generates audio signals S 1 B by collecting sound emitted was of 1 said user, and sends it to the controller 82.
  • the command receiving section 80 thus receives the received signal S 1 A and the audio signal S 1 B in accordance with the command given to the robot robot 23 by the user.
  • a command signal S 1 is generated and supplied to the controller 82.
  • the evening sensor 75 of the external sensor 81 is for detecting a user's action on the robot robot 23, for example, an action such as “stroke” or “hit”. For example, when the touch sensor 75 is touched by the user and a desired action is performed, a contact detection signal S 2 A corresponding to the action is generated and transmitted to the controller 82.
  • the image recognizing unit 71 of the external sensor 81 identifies the environment around the pet-type robot 23.As a result, the environment information such as "dark", "there is a favorite toy” or This is for detecting the movement of another robot device such as "another robot is running".
  • the image recognizing unit 71 sends an image signal S 2 B obtained as a result of photographing a surrounding image to the controller 82.
  • the external sensor 81 generates an external information signal S2 including a contact detection signal S2A and an image signal S2B in accordance with external information given from outside the pet-type robot 23 as described above. Is sent to the controller 82.
  • the internal sensor 85 is used to detect internal information of the pet robot 23 itself, for example, such as "hungry” or “heated", which means that the battery capacity has decreased. It is composed of a battery sensor 83 and a heat sensor 84.
  • the battery sensor 83 detects the remaining amount of the battery 77 that supplies power to each circuit of the pet robot 23.
  • the battery sensor 83 sends a battery capacity detection signal S 3 A, which is a result of the detection, to the controller 82.
  • the heat sensor 84 is for detecting heat inside the pet type robot 23.
  • the heat sensor 84 sends a heat detection signal S 3 B, which is a result of the detection, to the controller 82.
  • the internal sensor 85 generates the internal information signal S3 including the battery capacity detection signal S3A and the heat detection signal S3B according to the information inside the robot robot 23 in this manner. This is sent to the controller 82.
  • the image recognition unit 71, the microphone 72, the remote controller receiving unit 74, and the evening sensor 75 shown in FIG. 7 correspond to the external input unit 12 shown in FIG. 7A to 78N shown in FIG. 7 correspond to the output unit 16 shown in FIG.
  • components not shown in FIG. 7 but shown in FIG. 3 or FIG. 5 may be provided as components of the pet-type robot 23 shown in FIG. It goes without saying that it is good. For example, it goes without saying that a component such as the time input unit 13 may be provided.
  • a command signal S1 supplied from the command receiving section 80, an external information signal S2 supplied from the external sensor 81, and an internal information signal S3 supplied from the internal sensor 85 are used.
  • control signals S5A-S5N for driving each actuator 78A-78N are generated.
  • the rod-type robot 23 is operated by sending out and driving to each of 8 A to 78 N.
  • the controller 82 generates an audio signal S10 and a light emission signal S11 for output to the outside as necessary, and outputs the audio signal S10 to the outside via the speaker 73 as necessary.
  • the light emission signal S11 is sent to the LED 76 to output the light emission at a location (for example, blinking, changing the color). )
  • a location for example, blinking, changing the color.
  • an image display unit for displaying an image may be provided instead of the LED 76. This allows the user to know necessary information, for example, emotions, by displaying a desired image.
  • the processing of the controller 82 is specifically as follows.
  • the controller 82 includes a command signal S1 supplied from the command receiving unit 80, an external information signal S2 supplied from the external sensor 81, and an internal information signal supplied from the internal sensor 85.
  • S3 and S3 are subjected to software-based processing based on a program stored in a predetermined storage area in advance, and the resulting control signal S5 is stored in the storage area 78A to 78N. To supply.
  • the actuator operates based on the control signals S 5 A, S 5 B,..., S 5 N.
  • the controller 82 functionally categorizes the contents of the overnight processing.
  • the controller 82 has an emotion / instinct model section 90 as an emotion instinct model changing means and an action deciding means as an action deciding means. It is divided into a mechanism section 91 and an attitude transition mechanism section 92 as attitude transition means and a control mechanism section 93, and a command signal S1, an external information signal S2, and an internal information signal S3 supplied from the outside.
  • a mechanism section 91 and an attitude transition mechanism section 92 as attitude transition means and a control mechanism section 93
  • a command signal S1, an external information signal S2, and an internal information signal S3 supplied from the outside are input to the emotion and instinct model section 90 and the action decision mechanism section 91. In outline, it functions as follows.
  • Emotion ⁇ Instinct model section 90 determines the state of emotion and instinct based on command signal S1, external information signal S2 and internal information signal S3. Then, in the action decision mechanism section 91, in addition to the command signal S1, the external information signal S2, and the internal information signal S3, the emotion and instinct model section 90 obtains the information signal. The next motion (behavior) is determined based on the emotion and instinct state information S 10, and the next motion (behavior) determined by the behavior determination mechanism unit 91 in the subsequent posture transition mechanism unit 92 is determined. Make a posture transition plan to make the transition.
  • Action Information on the action (action) determined by the action determination mechanism 91 is fed back to the feelings • instinct model 90, and the emotion ⁇ instinct model 90 It is also used to determine the state of emotions and instinct by referring to the determined actions (actions). That is, the emotions' instinct model unit 90 determines the instinct and emotions with reference to the result of the action (action).
  • the control mechanism unit 93 controls each operation unit based on the posture transition information S 18 sent from the posture transition mechanism unit 92 based on the posture transition plan, and after the posture is actually changed, The next action (action) determined by the action decision mechanism 91 is actually executed.
  • the pet-type robot 23 determines the next operation (behavior) based on the emotion's instinct by the mechanism in the controller 82 as described above, and performs such an operation (behavior). After making a transition plan to a posture that can be executed, the posture is transitioned based on the transition plan, and then the action (action) determined based on such emotions and instinct is actually executed.
  • the emotion and instinct model storage unit 14 and the internal state calculation unit 11 shown in FIG. 3 are realized by the emotion and instinct model unit 90 shown in FIG. 8, and the behavior conversion shown in FIG.
  • the function of the unit 15 is included by the action determination mechanism unit 91, the posture transition mechanism unit 92, and the control mechanism unit 93 shown in FIG.
  • each component of the controller 82 as described above will be described.
  • the emotion and instinct model section 90 roughly comprises an emotion group 100 that constitutes the emotion model and an instinct model prepared as a model having different attributes from the emotion model. Desire group 101 is provided.
  • the emotion model is composed of emotion parameters having a certain value, and is a model for expressing an emotion defined in the robot device through an operation corresponding to the value of the emotion parameter.
  • the emotion parameters are mainly based on external input signals (surrounding information or external factors) such as “hit” and “angry” detected by sensors such as pressure sensors and visual sensors. , The value goes up and down.
  • the emotional parameters may change based on internal input signals (internal information or internal factors) such as the remaining battery level and internal temperature.
  • the emotion parameter changes based on the mere passage of time.
  • the instinct model is composed of an instinct parameter having a certain value, and the instinct (desire) specified in the robot device is instinct. This is a model for expressing through an action according to the value of the parameter.
  • the instinct parameters are mainly based on an internal input signal that says “I want to exercise” based on my action history or “I want to charge (hungry)” based on the battery level. Move up and down. Needless to say, the instinct parameter may change based on the external input signal, similarly to the emotion parameter parameter. Instinct paralysis also changes based on mere passage of time.
  • emotion model and instinct model are composed of multiple types of models each having the same attribute.
  • the emotion unit 100 is an emotion unit 1 as an independent emotion model with the same attributes.
  • the desire group 101 has the desire units 101 A to 101 D as independent desire models having the same attributes.
  • the emotion group 100 includes emotion unit 100 A showing the emotion of “joy”, emotion unit 100 B showing the emotion of “sadness”, and emotion unit showing the emotion of “anger”. 100 C, emotion unit showing emotion of “surprise” 100 D, emotion unit showing emotion of “fear” 100 E, and emotion unit showing emotion of “disgust” 100 OF And the like.
  • the desire group 101 includes a desire unit 101 A showing a desire for “Movement Inst inct”, a desire unit 101 A showing a need for “Love Instinct”, and A desire unit 101 C indicating a desire of “Recharge Instinct” and a desire unit 101 D indicating a desire of “Search Instinct” are exemplified.
  • the emotion unit 100 A to 100 F expresses the degree of emotion by, for example, an intensity (emotion parameter) up to the 0 to 100 level, and is supplied with a command signal S 1 and an external signal. Based on S2 and the internal information signal S3, the intensity of emotion is changed every moment.
  • the emotions and instinct model section 90 expresses the emotional state of the pet robot 23 by combining the intensity of the emotion unit 100 A to 100 D, which changes every moment. It models the change of emotion over time.
  • desired emotion units are mutually influenced to change the intensity. For example, emotional units are connected with each other in a mutually repressive or mutually stimulating manner, so that they affect each other and change in intensity.
  • the united unit of “Joy” By bridging 100 A with the emotional unit of “sadness” 100 B in a mutually repressive manner, when the user praise it, the emotional unit of “joy” 10 In addition to increasing the strength,
  • the emotional unit 100B of “sadness” and the emotion unit 100C of “anger” are reciprocally coupled to each other, so that when the user is hit, “anger” is generated.
  • the input information S1 to S3 that would change the intensity of the emotion unit 100B of "sadness” while increasing the intensity of the emotion unit 100C of the Also, as the intensity of the emotion unit of “anger” 100 C increases, the intensity of the emotion unit of “sadness” 100 B increases. Similarly, as the intensity of the emotion unit of “sadness” 100 B increases, the intensity of the emotion unit of “sadness” 100 B increases and the emotion unit of “anger” increases. G 1 ⁇ If the intensity of 0 C; dogs.
  • the desire unit 101 A-: 101 D like the emotion unit 1 ⁇ 0 A- 100 F, determines the degree of desire, for example, the intensity up to the 0-100 level (instinct).
  • the intensity of the desire is changed momentarily based on the supplied command signal S1, external information signal S2, and internal information signal S3.
  • the emotions and instinct model section 90 expresses the state of the instinct of the pet-type robot 23 by combining the ever-changing intensity of the desire unit 101 A to 1 ⁇ 1 D.
  • the instinct is modeled over time.
  • desired desire units interact with each other to change the intensity.
  • the desire units are connected with each other in a mutually repressive or mutually stimulating manner so that they influence each other to change the intensity.
  • the intensity of one of the coupled desire units is changed, the intensity of the other desire unit is changed in response to the change, and the pet-type robot having a natural instinct is changed. 23 is realized.
  • each unit between the emotion group 100 and the desire group 101 affects each other, and the intensity thereof is changed.
  • the change in the intensity of the desire unit 101 of the desire group 101, the desire unit 101 B of the love lust, and the intensity of the unit 101 B of the appetite change the intensity of the sadness of the emotion group 100 Changes in the intensity of the emotion unit 100B and the emotional unit of "anger” 100C, and changes in the intensity of the appetite unit 1101C of the emotion "sadness” It seems to affect the intensity of unit 100B and the emotional unit 100C of "anger”.
  • the feeling of “anger” and the feeling of “sadness” are reduced. It is possible to express a state in which feelings of “anger” and “sadness” increase if “appetite” is not satisfied.
  • the interaction between emotion and desire can express a state in which emotion and instinct interact in a complex manner.
  • the emotion and instinct model section 90 includes the human power information S1 to S3 including the command signal S1, the external information signal S2, and the internal information signal S3, or the emotion group 100 and The emotion unit 100 A to 100 0 due to the interaction between the emotion units in the desire group 101, the interaction between the emotion group 100 and the unit between the desire group 101, etc.
  • the intensity of F and the desire unit 101 A to 101 D are respectively changed.
  • the emotion and instinct model section 90 determines the state of emotion by combining the intensity of the changed emotion unit 100 A to 100 F, and the changed desire unit 101 A to : Determine the state of the instinct by combining the intensities of L 0 1 D and send the determined emotion and instinct state to the action determination mechanism section 91 as emotion / instinct state information S 10.
  • the action information S 12 indicating the current behavior of the pet type robot 23 itself from the action determination mechanism section 91 at the latter stage is shown.
  • the action information S12 is supplied as information indicating that "walking for a long time”.
  • the behavior information S12 By feeding back the behavior information S12 in this way, even if the same input information S1 to S3 is given, according to the behavior of the pet-type robot 23 indicated by the behavior information S12. Different emotions ⁇ Instinct status information S 10 can be generated. Specifically, with the following configuration, the behavior information S12 to be fed back is referred to in determining the state of emotion and behavior.
  • the emotion and instinct model section 90 includes action information S1 indicating the action of the pet-type robot 23 before each emotion unit 100A to 100C.
  • Intensity increasing / decreasing means 1 for generating intensity information S 14 A to S 14 C for increasing or decreasing the intensity of each emotion unit 100 A to 100 C based on 2 and input information S 1 to S 3 0 2 A to 102 C are provided, and each emotion unit 100 A according to the intensity information 3 14 to 3 140 output from the intensity increasing / decreasing means 102 A to 102 C. Increase or decrease the intensity of 100 C, respectively.
  • the emotion and instinct model section 90 rubs the head when greeting the user, the behavior information S12 indicating that the user greeted the user and the input information S1 to indicate that the head was stroked.
  • S3 is given to the intensity increasing / decreasing means 102A, the intensity of the emotion unit 100A of "joy" is increased.
  • the emotions' instinct model section 90 receives the input information indicating that even if the head is stroked while performing any work, that is, the behavior information S 12 indicating that the work is being executed and the head is stroked. Even if S1 to S3 are given to the intensity increasing / decreasing means 102A, the intensity of the emotion unit 101A of "joy" is not changed.
  • the intensity increasing / decreasing means 102 A is configured as a function or a table that generates intensity information S 14 A to S 14 C based on the behavior information S 12 and the input information S 1 to S 3. It has been.
  • the emotion and instinct model section 90 is composed of the intensity increasing and decreasing means 102 A
  • Each of the emotion units is provided with ⁇ 100 C, referring not only to the input information S 1 to S 3 but also to the action information S 12 indicating the current or past action of the robot 23.
  • the intensity of 100 A to 100 ⁇ C for example, when the user stroks his head while performing some task, he / she will feel happier 100 A It is possible to avoid causing unnatural emotions that increase the intensity of the sound.
  • the emotion and instinct model section 90 also performs the same based on the supplied input information S 1 to S 3 and the action information S 12 in the case of the desire unit 101 A to 101 C as well.
  • the intensity of the desire unit 101 A to 101 C is increased or decreased, respectively.
  • the emotional unit of “joy”, “sadness” and “anger” 100 A-: L 0 C is provided with intensity increasing / decreasing means 102 A- 102 C.
  • the provided example has been described.
  • the present invention is not limited to this, and it goes without saying that other emotional units of “surprise”, “fear” and “disgust” 100D to 100F can be provided with intensity increasing / decreasing means. Absent.
  • the intensity increasing / decreasing means 102 A to 102 C responds to the preset parameters.
  • the intensity information S 14 A to S 14 C is generated and output, so by setting the parameter to a different value for each of the robots 23, for example, an angry robot Like a robot with a bright personality, the robot can have individuality.
  • the processing of the action determining mechanism section 91 will be described. Specifically, the action determination mechanism 91 determines the next action (action) based on various information in cooperation with the selection module 94 shown in FIG. Action decision As shown in FIG.
  • the mechanical unit 91 includes information S consisting of a command signal S1, an external information signal S2, an internal information signal S3, emotion / instinct status information S10, and action information S12. 14 is input, and the next operation (action) is determined based on this information S14. .
  • the first action model (action model 1), the second action model (action model 2), and the third action model (Action model 3), "fourth action model (action model 4)", whereas nth action model (action model n (n is an integer.)) are doing.
  • the behavior model is defined as “when the battery level is low”, “return to fall”, “when avoiding obstacles”, “when expressing emotion”, “when the ball is detected”, etc. It is a model for deciding actions in a scene. That is, when certain information is input, a specific behavior model (even if there are multiple behavior models) responds to the input information, and the behavior model responding in that way determines the next behavior .
  • the first to n-th behavior models are output to the selection module 94.
  • Each of the first to n-th behavior models uses one node (state) N 0 DE as shown in FIG. 13 as a method for determining the next behavior.
  • N 0 DE "or transition to any other node NODE. ⁇ NODE n each from Bruno -.
  • the first to n-th behavior models are Node NOD E that forms the model. NONODEflore, and each of these nodes N 9DE. ⁇ N0DEn has a state transition table 95 as shown in FIG.
  • Node NO D E represented by such a state transition table 95 in FIG. .
  • the recognition result (information S 14) of “detect ball (BALL)” is given, the “SIZE” of the ball given together with or as the recognition result is changed to “SIZE”.
  • a recognition result of “OBS TACLE” is given in the range of “0 to 1000” or “obstacle detected (OBS TACLE)”, the “distance (DIST)” to the obstacle given with the recognition result is given.
  • ANCE) is in the range of“ 0 to 100 ”, which is a condition for transitioning to another node. Also, this node N 0 D E t. .
  • the node of the transition destination is also selected by referring to whether or not the intensity of the desired unit has exceeded a predetermined threshold among the intensity of 1A to 101D. Thereby, for example, even if the same command signal S1 is input, transition to a different node is made according to the intensity of the emotion unit 100A to 100F and the desire unit 101A to 101D. I will be.
  • the recognition result (information S 14) is input.
  • the first to n-th behavioral models have the emotion / instinct model section 90, and among the parameter values of each emotion and each desire, the “joy” (J 0 Y) ”,“ SURPRISE ”or“ SUDNESS ”If any parameter is in the range of“ 50 to 100 ”, transition to another node is possible. It is like that.
  • the node N 0 DE is shown in the column of “transition destination node” in the column of “transition probability to another node”.
  • NOD E is listed, and all the conditions described in the" Input event name "," Data value ", and” Data range “rows are met.
  • the transition probabilities to NOD E surviveare described at the corresponding locations in the column of“ Transition probabilities to other nodes ”, and their nodes N 0 DE.
  • To N 0 actions to be output when transitioning to DE n are described in the row of "output action" in the column of "probability of transition to another node”.
  • the transition probability may be changeable.
  • the transition probability is changed by a learning function.
  • the pet-type robot 23 changes the transition probability according to the learning result, and thus has an individuality in determining the action.
  • the transition probabilities indicating the characteristics of such a pet-type robot 23 are stored as pet characteristic information in the individual information storage unit 1 (IC card 21).
  • Node N 0 DE! Represented by the state transition table 95 in FIG. . .
  • “ball detection (BAL L)” and the recognition result that the "SIZE” of the ball is in the range of "0 to 1000" (information S If 1 4) is given, it is possible to transition to “node NO DE 12 ⁇ (node 120)” with a probability of “30 [%] j”, and the action of “ACTI 0N 1” is output become.
  • a behavior model for example, it is detected that the palm is put in front of the eyes based on the supplied external information signal S2, and “anger” is detected based on the emotion / instinct state information S10.
  • the emotion unit 100 C is below a predetermined threshold value, and based on the internal information signal S 3, “not hungry”, that is, when the battery voltage is higher than the predetermined threshold value
  • the action to perform the “front” action is determined according to the palm being put out in front of the eyes.
  • the palm of the hand is put out in front of the eyes, and the intensity of the emotion unit 100 C of “anger” is below a predetermined threshold value, and “the stomach is hungry”, that is, the battery voltage is a predetermined When it is detected that the value is less than the threshold value, an action for performing an action such as “sloppy palm” is determined.
  • the “stomach is not hungry” Regardless of whether or not the voltage is equal to or higher than a predetermined threshold, an action for performing an operation such as “turning to the side” is determined.
  • Each of the first to n-th action models is configured such that a number of nodes NOD E (, to NOD Er) described as such a state transition table 95 are connected, and the recognition result is obtained.
  • (information S 14) is given, for example, the next action is stochastically determined using the state transition table of the corresponding node N 0 DE to ⁇ 0 DE n , and the determination result is selected by the selection module. Is output to the file 94.
  • the selection module 94 selects an action output from a predetermined high-priority action model among actions output from the first to n-th action models, and outputs information on the selected action. Is output to the posture transition mechanism section 92 as the action command information S16. For example, in FIG. 12, the lower the behavior model is, the higher the priority is set.
  • the selection module 94 also outputs the selection result to the emotion / instinct model unit 90 and the action determination mechanism unit 91 as action information S12. For example, the selection module 94 sets a flag on the determined action, and outputs the information as action information S12 and action command information S16 to the action determination mechanism section 91 and the posture transition mechanism section 92. I have.
  • the emotion / instinct model section 90 adds the same information S1 to S3 (information consisting of the command signal S1, the external information signal S2, and the internal information signal S3).
  • the state of emotion and instinct is changed based on the behavior information S12.
  • the emotion / instinct model unit 90 can generate different emotion / instinct state information S10 even when the same information S1 to S3 is given, as described above.
  • the information S 1 to S 3 have different contents depending on the evening inputted to the emotion / instinct model section 90 and the action decision mechanism section 91. Therefore, it is also input to the action determination mechanism section 91 together with the emotion and instinct model section 90.
  • the emotion / instinct model section 90 sends the emotion / instinct state information S1 indicating "happy”. 0, and supplies the emotion's instinct state information S 10 to the action determining mechanism section 91.
  • the external information signal S 2 indicating that “the hand is in front of the eyes” is supplied.
  • the behavior determination mechanism 91 recognizes To do it. "
  • the action command information S16 is determined by the action determination mechanism section 91 and the selection module 94, that is, the action as a concept is determined and determined.
  • the action command information S 16 is input to the posture transition mechanism 92.
  • the posture transition mechanism section 92 generates information for transitioning to a target posture and a target operation.
  • the pet-type robot 23 determines the next action by the action determining mechanism 91, but the next action is not necessarily the same from the current action. Is not realized. That is, the current behavior is realized in a “sleeping posture” and the next posture is realized in a “standing posture”. In such a case, in order to execute the next action, it is necessary to transition from the “sleeping posture” to the “standing posture” once.
  • the posture transition mechanism section 92 is for executing such transition of posture or operation.
  • the posture transition mechanism 92 As shown in FIG. Based on the action command information S16 supplied from the fixed mechanism section 91, the current posture or action is followed by the next posture or action (the desired attitude or target action, or the next action is realized. To generate the posture transition information S 18 for transition to the control mechanism unit 93.
  • the posture that can transition from the current posture to the next posture is the physical shape of the pet-type robot 23 such as the shape, weight, and connected state of the torso, hands and feet, and the joints are bent
  • the posture transition information S 18 is determined by the mechanism of actuary 78 A to 78 N such as the direction and the angle, and the posture transition information S 18 is considered to be the information for transition.
  • the control mechanism unit 93 actually operates the pilot-type robot 23.
  • the posture transition mechanism 92 registers in advance the posture in which the pet robot 23 can transition and the movement at the time of the transition, for example, as a graph, and is supplied from the behavior determination mechanism 91.
  • the action command information S 16 thus sent is sent to the control mechanism 93 as posture transition information S 18.
  • the control mechanism section 93 operates in accordance with the posture transition information S18 to make a transition to a target posture or a target operation.
  • the details of the process performed by the posture transition mechanism 92 are as follows.
  • the pet robot 23 may not be able to directly transition to the posture according to the contents of the command (action command information S16).
  • the postures of the pilot robot 23 are classified into a posture that can directly transition from the current posture, and a posture that cannot directly transition and can be performed via a certain motion or posture. Because.
  • a four-legged pet-type robot 23 can directly transition from a lying down state to a prone state by throwing out a large limb, but cannot directly transition to a standing posture. However, it is necessary to perform a two-step operation in which the limbs are once pulled close to the torso, become prone, and then stand up. There are also postures that cannot be safely executed.
  • a four-legged robot 23 may fall over if you try to do banzai with both front legs in a standing position.
  • the current posture is lying down (sleeping posture)
  • the contents of the command such as “fluttering the legs” that can only be done in the sitting posture are sent
  • a command is issued, the transition from the sleeping position to the sitting position and the action of flapping the legs are executed, and the pet-type robot 23 loses balance and falls over In some cases.
  • the attitude transition mechanism section 92 uses the action command information S16 as it is. While the transition information S 18 is sent to the control mechanism 93, if it indicates a posture that cannot be directly transited, the posture (a behavior command information It generates posture transition information S 18 that makes a transition to the posture indicated by S 16) and sends it to the control mechanism 93. This makes it possible for the pet-type robot 23 to avoid a situation in which a non-transitionable posture is forcibly executed or a fall. On the other hand, preparing multiple movements until transitioning to the target posture or movement leads to enrichment of expression.
  • the pet-type robot 23 is an electronic The action of making it appear. Therefore, as described above, it is indispensable to consider the current posture and the like when transitioning to the target motion or posture. It is also indispensable to consider resource competition as described later. It should be noted that a virtual electronic cut-out device that causes the action of an electronic cut-off to appear in the virtual world (on the screen)
  • the posture transition mechanism section 92 is a graph in which the postures and actions that the pet-type robot 23 can take are registered, and is configured by connecting the postures and the movements for transitioning the postures. By holding the graph thus obtained, a path from the current posture to the target posture or the target movement is searched on the graph based on the action command information S16 as the command information, The operation is performed based on the search result, and a transition is made from the current posture to the target posture or the target movement. That is, the posture transition mechanism section 92 registers in advance the postures that the pet-type robot 23 can take, and records the space between the two possible postures. Based on the behavior command information S16 output from the behavior determination mechanism 91, the posture is changed to the target posture or motion.
  • the posture transition mechanism 92 uses an algorithm called a directed graph 96 as shown in FIG. 15 as the graph described above.
  • a node indicating the posture that the pet-type robot 23 can take a directed arc (moving arc) connecting between two possible transitions (nodes), and in some cases, -one An arc of an operation returning from a node to the one node, that is, a self-operation arc indicating an operation that completes the operation within one node is combined.
  • the posture transition mechanism section 92 includes a node that is information indicating the posture (stationary posture) of the pet robot 23 and a directional information that is information indicating the operation of the pet robot 23.
  • directed graph 96 composed of arcs and self-moving arcs, and grasps postures as point information and movement (or action) information as directed line information.
  • there may be a plurality of directed arcs and self-moving arcs that is, a plurality of directed arcs may be joined between transitable nodes (postures).
  • Self-acting arcs may be coupled.
  • the attitude transition mechanism section 92 and the node corresponding to the current attitude and the next position indicated by the action command information S16 By searching the path from the current node to the next node while following the direction of the directed arc so as to connect to the node corresponding to, the nodes on the searched path are recorded in order, It is designed to plan the transition.
  • a search for a target node (a node specified by a command) or a target arc (an arc specified by a command) from such a current posture is referred to as a route search.
  • the target arc may be a directed arc or a self-acting arc.
  • the case where the self-operation arc becomes the target arc is the case where the self-operation is targeted (instructed), and, for example, the case where a predetermined trick (operation) is instructed. No.
  • the posture transition mechanism unit 92 performs a transition based on a posture transition plan up to a target posture (node) obtained by the route search or a movement (directed arc or self-operation arc) to be regarded as a target.
  • Control command ( Figure The power transition information S 18) is output to the control mechanism 93 at the subsequent stage.
  • a directed arc a 9 exists at the node ND 5 indicating the posture of “sit down”, and a direct transition is possible, whereby the posture transition mechanism section 9 2
  • Posture transition information S 18 having the content “sail” is given to the control mechanism section 93.
  • the posture transition mechanism section 9 2 the current posture is the action command information S 1 6 of "walk” is supplied in some cases a node ND 2 indicating the posture of "lie down”, from the "withheld” Since a transition cannot be made directly to “walk”, a posture transition plan is made by searching for a route from the node ND 2 indicating the posture of “turn off” to the node ND 4 indicating the posture of “araku”.
  • the posture transition mechanism section 92 outputs posture transition information S 18 of “vertical”, and then controls the posture transition information S 18 of “walk”. Output to mechanism 93.
  • the pet-type robot 23 can operate each component separately. That is, it is possible to execute a command for each component.
  • such components of the robot device (whole) 1 are roughly divided into heads. Part 6 1, foot 6 3, tail 6 4.
  • the tail part 64 and the head part 61 can be individually operated. In other words, resources can be operated individually because they do not conflict.
  • the entire robot 23 and the head 61 cannot be operated separately. In other words, they cannot be operated individually because of resource conflicts. For example, it is not possible to execute the contents of the command for the head 61 while the entire operation in which the operation of the head 61 is included in the contents of the command is performed. For example, it is possible to shake the tail 6 4 while shaking the head 6 1, but it is impossible to shake the head 6 1 while performing a trick using the whole body (whole) It is like that.
  • the occurrence of such resource competition is a specific problem of the pet-type robot 23 that actually constitutes an electronic unit.
  • the following table shows an example of a combination of the case where the resource conflicts and the case where the resource does not conflict with the action command information S16 sent from the action decision mechanism unit 91.
  • the final posture after the entire operation 23 is not necessarily a posture suitable for starting the operation such as shaking the head 61.
  • the head 61 may show a sudden movement, which may be an unnatural movement.
  • the target posture (or motion) from the current posture (or motion) extends over the entire pet robot 23 and each component.
  • a network (graph) composed of nodes and arcs constructed for control, and a network composed of nodes and arcs constructed for controlling each component of the pet-type robot 23 (Graph) is a problem that occurs when they are constructed separately without any connection.
  • the unnatural movement of the pet-type robot 23 due to the discontinuity of the posture before and after the transition makes the posture transition plan so that the transitional movement is smoothly connected on the graph. It can be solved by standing. Specifically, this is resolved by taking a basic attitude shared on the graphs of the whole and the constituent parts and creating an attitude transition plan.
  • a network report showing the entire network used for the attitude transition planning of the pet-type robot 23 and the information of each component are shown. From the network information (graph), the case where the whole is configured as a hierarchical structure is described below.
  • the information used for the posture transition plan which consists of the information of the entire network (graph) and the information of the network of each component (graph), is as shown in FIG. It is constructed in the posture transition mechanism 92.
  • the basic posture is a posture that is temporarily transitioned in order to change a state between the entire operation and the operation of each component.
  • a sitting posture can be cited.
  • the procedure to smoothly connect the transition motions is explained.
  • current posture is posture ND a whole graph.
  • head movement a 2 is executed as a target.
  • the basic position ND hb state from an optimal oriented arc a of is selected, the operation of the head 61 to a target (self operating arc) path to the a 2 is determined.
  • a transition path selection (posture transition plan) that smoothly connects the motion between the whole and each component is made in the whole graph and the head graph. Then, the control mechanism section 93 outputs the posture transition information S19 to the control mechanism section 93 based on the posture transition plan.
  • the above-described example is a specific example in which the operation of each component is smoothly connected from the entire operation.
  • the entire operation is smoothly connected from the operation of each component.
  • the head 61 is grasped as the posture ND h «in the graph of the head, and the foot 63 is posture ND r in the graph of the foot.
  • a directed arc a that changes the posture of the head 61 from the current posture ND h0 to the basic posture ND al , on the graph of the head.
  • Select The posture of the foot 63 on the graph of the foot is defined as the current posture NDf.
  • the posture ND fb From the basic posture ND fb , the posture ND f ! Select the directed arc aa 2 to be transitioned via. It is assumed that the tail 64 is in the basic posture. When each component is in the basic posture as described above, it is understood as the basic posture on the entire graph.
  • each component may be performed at the same time as the operation of other components when transitioning to the basic posture, or the operation of each component may be performed with restrictions. it can. For example, it may be performed at a certain timing. Specifically, if a command is issued for the operation of the whole 23 while performing the trick using the head 61, the trick for the head 61 is performed. Because it is in the middle, it is not possible to transition to the basic posture ND hl , so first, the foot 63 is first placed in the basic posture ND fb , then the head 61 that has completed the art is in the basic posture ND hb If you try to make the transition to
  • each component can be operated in consideration of the balance between the postures of the whole 23 and the like. For example, if the head 6 1 and the foot 6 3 are moved at the same time, or if the head 61 is initially in the basic posture ND hb , the balance is lost and the vehicle falls down. In such a case, the foot 63 is first placed in the basic posture ND ft) , and then the head 61 is transitioned to the basic posture ND hl .
  • the motion can be connected smoothly by making a posture transition plan that makes a transition to the basic posture once.
  • the posture transition mechanism section 92 searches for the optimal path to the posture or operation targeted by the command based on the action command information S16 sent from the action determination mechanism section 91. Then, a posture transition plan is made, and posture transition information S 18 is output to the control mechanism section 93 according to the posture transition plan.
  • the pet-type robot 23 can avoid a situation in which a posture in which transition is impossible is forcibly performed or a fall is caused.
  • preparing multiple movements before transitioning to the target posture or movement leads to enrichment of expression.
  • the control mechanism section 93 generates a control signal S5 for driving the actuators 78A to 78N based on the posture transition information S18, as shown in FIG. By sending the signals to 780 A to 78 N in the evening to drive the actuators 78 A to 78 N, the pet-type robot 23 performs a desired operation.
  • the control mechanism unit 93 follows the posture transition plan sent from the posture transition mechanism unit 92. Based on the posture change information S 18, the actuators 78 A to 78 N are controlled to change the boat-type robot 23 to a desired posture or motion. Then, the control mechanism 93 controls the actuators 78 A to 78 N based on the information of the action selected by the selection module 94 to be transmitted next, and the packet type The selected action, such as a trick, appears in Bot 23.
  • control mechanism unit 93 does not change the posture or operation, and the control module 93 does not change the posture or operation. Based on the information on the action selected by step 4, it controls the actuary overnight 78A to 78N to cause the selected robot (23) to make the selected action (for example, an art) appear.
  • the above is a more specific configuration of the pet type robot 23.
  • a pet-type robot 23 is based on information from external information (surrounding environment or external factors, etc.) or internal information (internal factors, etc.). You can change your state and act according to your emotions and instinct.
  • the electronic pet that is easily angry the electronic pet of the crybaby
  • the electronic device act such that the emotions and instinct are added to the electronic device, and to change the emotion by the action performed by the user. Become. Specifically, for example, if the electronic tablet is hungry and the emotion of anger is rising, the electronic pet performs an action to cry or sleep, and the action causes the emotion of anger. Can be calmed down. As a result, a more realistic electronic bet is realized.
  • FIGS. 7 and 8 the configuration of FIGS. 7 and 8 is shown as a specific configuration of the pet-type robot 23, but the configuration shown in FIGS. 7 and 8 is replaced with the virtual electronic device 22. Needless to say that it can be applied to Absent.
  • a virtual electronic device 22 as shown in FIGS. 7 and 8 is realized by employing an equivalent technique for an inappropriate part.
  • the operation unit actuator 178 A to 78 N
  • this is changed to the output to the image display unit, and the virtual electronic pet device 2 is changed. Realize 2.
  • the individual characteristic storage unit 1 (IC card 21) stores the characteristic information of the pet, and based on the stored characteristic information of the pet, the emotion described above is performed.
  • an electronic kit with instinct is realized.
  • the kit characteristic information stored in the individual information storage unit 1 (IC card 21) is configured.
  • Examples include the emotion parameters and the instinct parameters determined by the emotion model and the instinct model described above.
  • the individual information storage unit 1 stores emotion parameters and instinct parameters as shown in FIG. 21, for example.
  • the transition probability at the time of deciding an action can be stored in the individual information storage unit 1.
  • ⁇ N 0 DE n each node one de NODE whether to transition to.
  • Arc ARC! ⁇ Eight C n which connects to ⁇ NODE ", are determined stochastically act on the transition probability P! To P n which is set respectively, the transition probability P, to P n can also be stored in the individual information storage unit 1.
  • This transition probability P! Pn can be changed by an emotional state, an instinct state, or learning. It is possible to realize the personality of electronic pets.
  • the pet feature information stored in the individual information storage unit 1 is not limited to the above example.
  • the name of an electronic device For example, it may be the name of an electronic device, the name of the owner (name of the owner (user)), the time of growth, the number of reincarnations, or the race.
  • the growth time is, for example, the elapsed time since the birth of the electronic packet to the present.
  • the electronic pet (soul) can be revived even if it dies, and the remaining number of reincarnations is information indicating the remaining number of times it can be revived. Specifically, it is the number of resets.
  • the race is information indicating the type of electronic pet, such as whether the electronic pet is a dog, a cat, a bird, or the like. The type of electronic pet does not necessarily need to be a real animal.
  • the pet feature information may be learning information.
  • the learning information is information on whether the electronic device can perform a predetermined trick. In other words, the electronic pet can learn some tricks, and the learning information is information indicating whether each trick can be performed.
  • the internal state and the like are stored in an IC card detachable from the virtual electronic device 22 or the pet-type robot 23. Since the information is stored in the storage unit 21, it is possible to enjoy the electronic pet in a form suitable for the user's environment.
  • the IC card 21 is attached to the virtual electronic pet device 22 or the pet-type robot 23 to function as an electronic pet.
  • the IC card 21 can be mounted on a general convenience store, for example, so that the convenience store can also function as an electronic kit.
  • the present invention has been described with reference to electronic pets.
  • the present invention can also be applied to biological objects other than electronic pets (for example, plant objects). is there.
  • the pet feature information is stored in the IC card, but other storage means for storing the pet feature information include, for example, a memory card, an optical card, and a magneto-optical disc. Disks, magnetic disks, and other portable and removable devices can be used.
  • the individual information storage unit 1 for storing the pet characteristic information is detachable from the main unit 2.
  • the memory (the built-in storage medium or the storage device) is not detachable from the main unit 2. Etc.), and the pet feature information may be stored in the memory.
  • the individual information storage unit 1 and the main unit 2 exchange pet characteristic information and the like using various communication means such as a communication cable, wireless, and infrared rays.
  • the electronic device is a virtual entity displayed on the monitor, so that its appearance can be easily changed. It is difficult to make changes on your own. Therefore, in the pet type robot 23, out of the pet feature information, Things related to views are basically ignored. However, for example, when the pet-type mouth bot 23 is dog-shaped and the pet characteristic information is a bird, the parts are placed in the pet-type robot 23. It is possible to request to change to a bird type (for example, to request by a synthetic sound).
  • FIGS. 22 to 24 specific examples of the removable IC card used in the above-described first embodiment are shown in FIGS. 22 to 24.
  • FIG. Various types of cards are currently standardized for the IC card, and the present invention is applicable to any of these IC cards.
  • a stick-shaped IC card is taken as an example.
  • the stick-shaped IC card is detachable as described above, but the stick-shaped IC card can be used by a user to control the stick-type robot 23 or the virtual electronic card.
  • the stick-shaped IC card can be used by a user to control the stick-type robot 23 or the virtual electronic card.
  • a sound such as a click sound is generated. It is sufficient if the user can obtain a feeling of wearing due to the unpleasant sound, and if the pet type robot 23 or the virtual electronic device 22 has an IC card lock / eject function.
  • the IC card 13 1 is color-coded to indicate a predetermined insertion position. That is, when the IC card 13 1 is inserted into the slot 23 A or 22 A of the pet type robot 23 or the virtual electronic device 22, the part that should go out of the slot The color of 1 3 4 is different from the color of 1 3 3 that is inserted and hidden in the slot (color-coded), so that the user can visually recognize the correctly loaded state. .
  • FIG. 22 illustrates an example in which the label 132 attached to the main body of the IC card 131 is color-coded, the main body of the IC card 131 itself may be color-coded.
  • the present invention is not limited to the color of each of the parts 13 3 and 13 4 at the time of color classification, and any color can be used.
  • the arrow mark 1 shown in FIG. 23 is used together with or in place of the color coding of the IC card 13 1. It is also possible to provide 35.
  • the color of the part 13 4 that should go out of the slot and the color of the part 13 3 that is inserted and hidden inside the slot are color-coded as in the example of FIG.
  • An example is shown in which an arrow mark 1 3 5 is added to a portion 1 3 4 that should go out of the bird.
  • Fig. 23 shows an example in which the label 13 2 attached to the IC card 13 1 body is color-coded and the arrow mark 1 35 is added.
  • the arrow mark 1 35 may be provided on the body itself.
  • a line 1336 indicating a boundary position as shown in FIG. 24 can be provided together with or in place of the color coding of the IC card 131.
  • the color of the part 13 4 that should go out of the slot and the part 13 3 that is inserted and hidden inside the slot are color-coded as in the example of FIG.
  • An example is shown in which a line 13 6 is added to the boundary between the part 13 4 that should go out of the slot and the part 13 3 that should enter the slot.
  • FIG. 24 shows an example in which the label 13 2 attached to the IC card 13 1 body is color-coded and a line 13 6 is added. 36 may be provided.
  • FIG. 25 shows a state where the above-described IC card 13 1 is correctly loaded into the slot of the pet-type robot 23 or the virtual electronic device 22.
  • FIG. 26 shows an example of a label 132 attached to the IC card 131 main body.
  • the label 1332 in Fig. 26 is an example in which only color coding is performed as in the example in Fig. 22.
  • the IC card 131 is inserted into the slot, it is removed from the slot.
  • the color of the part that should come out, and the color of the part that is inserted into the slot and hidden, are color-coded.
  • FIG. 2.7A shows a bottom view when FIGS. 22 to 24 are plan views of the IC card 131
  • FIG. 27B shows a side view.
  • This IC card 13 1 has a pet-type robot 23 and a virtual electronic device.
  • Terminal 23 connected to the data transmission / reception terminals provided in slots 23A and 22A of unit 22 and a write-protection port for prohibiting data writing. 138 are provided.
  • Label 1332 in FIG. 26 is affixed so that part 134 that should go out of the slot goes around the bottom surface of IC card 131.
  • the individual information storage unit 1 (pet characteristic information of an electronic pet) can be stored in a storage medium such as a removable IC card, and this IC card is stored in a virtual electronic kit.
  • a storage medium such as a removable IC card
  • this IC card is stored in a virtual electronic kit.
  • the virtual electronic socket device 22 and the pet robot 23 can be connected to each other.
  • An example in which the packet feature information can be transferred has been described.
  • the packet feature information can be transferred by communication without using an IC card will be described.
  • FIG. 28 shows a connection example according to the second embodiment of the present invention.
  • the virtual electronic device 200 in FIG. 28 is basically the same as the virtual electronic device 22 described above, and the pet-type mouth bot 204 in FIG. Is basically the same as the above-described pet-type robot 23, but in the case of the second embodiment, the virtual electronic pet device 202 and the pet-type robot 204 are Both of them include a communication processing unit that can replace the above-mentioned kit feature information of the individual information storage unit 1 by communication.
  • the pet feature information communicated via the communication processing unit can be stored in the same IC card as described above, or the built-in data storage units 203 and 205 (FIG. In the example of 28, it is drawn out of the virtual electronic device 202 and the pet-type robot 204. Are actually built-in).
  • a description will be given by taking as an example a case where a built-in data storage unit (which stores the kit feature information) is used.
  • the virtual electronic device 202 and the pet-type robot 204 are connected to the personal computer 201, respectively, and the personal computer 202 is connected to the personal computer 210. 1 is connected to a network such as the Internet 200, but the virtual electronic socket device 202 and the pet-type robot are not connected via the personal computer 201. It is possible to directly connect 204 to the Internet or directly to the Internet 200 without using the personal computer 201. Further, in the case of the second embodiment, it is also possible to connect the virtual electronic pet devices 202 and the pet robots 204 with each other.
  • the electronic kit can be realized not only on the virtual electronic kit device 202 and the pet-type robot 204 but also on a personal computer 201. That is, in this case, the personal computer 201 is installed with an application program for realizing the above-mentioned electronic device, and this electronic device software is installed. By launching the location program, it is possible to breed electronic tablets on the personal computer 201. Therefore, the personal computer 201 stores the characteristic information of the electronic tablet.
  • connection form in the case of transmitting and receiving the packet characteristic information between the virtual electronic pet device 202 and the rod-type robot 204 is as follows. Connection via cable, wireless connection Various connection modes are conceivable, such as connection, connection by infrared rays, and the like, and the present invention is applicable to all other connection modes including those using cables, wireless, and infrared rays.
  • FIG. 29 shows the configuration of the main part (communication processing unit) of the pet-type robot 204 that can transfer the pet feature information by communication as described above.
  • the pet-type robot 204 has the configuration shown in FIGS. 3 and 5 to 7 described above, but FIG. 29 shows a portion necessary for communication of the pet feature information. Only the (communication processing unit) is shown.
  • a connection using infrared rays (IrDa), a serial cable connection, and a wireless connection are given as examples of connection forms.
  • the RAM 211 corresponds to the RAM 33 in FIG. 5
  • the arithmetic processing unit 212 corresponds to the CPU 31 in FIG.
  • the communication processing unit 210 of the mobile robot 204 in FIG. 29 is connected to an external device (for example, a virtual electronic pet device, a personal computer, or the Internet) to transmit and receive the packet characteristic information. It has an infrared (IrDa) transmission / reception unit 217, a serial port unit 218, a wireless transmission / reception unit 219, and the like as communication means for performing the communication. These communication means are connected to the communication control unit 215.
  • an external device for example, a virtual electronic pet device, a personal computer, or the Internet
  • the communication control unit 2 15 is controlled by an arithmetic processing unit 2 12 corresponding to the CPU 31 in FIG. 5, operates according to the communication clock from the clock generation unit 2 16 and transmits and receives data to and from the communication unit. Transmission / reception is performed based on the communication protocol corresponding to the connection type.
  • the transmitted data is read out, for example, from the RAM 211 under the control of the arithmetic processing unit 212, and the transmission data is stored as a transmission buffer. After being temporarily stored in the section 211, it is transmitted from the communication means via the communication control section 215. The data received by the communication means is temporarily stored in a reception data storage unit 214 as a reception buffer via the communication control unit 215, and then sent to the RAM 211.
  • FIG. 30 shows a specific appearance of the virtual electronic device used in the embodiment of the present invention.
  • the virtual electronic cut-out device 220 shown in FIG. 30 includes a monitor 222 for displaying an electronic cut-off, a speaker 222 for outputting sound, and a sound inputting device for capturing sound.
  • the internal hardware configuration of the virtual electronic device 220 as shown in FIG. 30 is as shown in FIG. Note that the configuration shown in FIG. 31 basically has the same function as that of FIG. 4 described above, but enables communication of packet feature information as in the second embodiment.
  • a communication interface 111 is provided as a configuration for performing this.
  • the arithmetic processing unit 113 performs various processes in accordance with a program stored in the ROM 116.
  • the ROM 116 stores a program to be executed by the arithmetic processing unit 113 and data necessary for executing the program.
  • the RAM 115 stores data necessary for the operation of the arithmetic processing unit 113.
  • the communication interface 112 functions as an interface corresponding to the communication means and the communication control unit 215 of FIG. 29 described above.
  • the microphone (microphone) 224 converts the sound inputted thereto into a sound signal as an analog electric signal, and supplies the sound signal to the A / D converter 101.
  • the A / D converter 101 converts an analog voice signal from the microphone 224 from analog to digital, and outputs the digital voice signal to the voice recognition device 104.
  • the speech recognition device 104 is configured to perform linear prediction analysis on the input speech signal to extract its feature amount, and further perform speech recognition based on, for example, the HMM method.
  • a program executed by the voice recognition device 104 for performing voice recognition and a word model to be subjected to voice recognition are stored in, for example, ROM 103.
  • the ROM 103 stores a model of a word used for speech recognition, in particular, a model of a word used by the owner to speak to the pet.
  • the method of acoustic analysis is not limited to linear prediction analysis, and the method of speech recognition is not limited to HMM.
  • the RAM 102 stores data necessary for the operation of the speech recognition device 104.
  • the key part corresponds to the operation button 222 and the talk switch 222 of FIG.
  • a signal output from the key unit by the user operating the key unit 2 2 1 or 2 2 6 is input to the arithmetic processing unit 113.
  • the arithmetic processing unit 113 recognizes the button ⁇ key or the like operated by the user. For example, when the operation buttons 226 are operated in the key section, various inputs are given to the electronic unit in accordance with the operation. In the key section, talks When the switch 221 is pressed, the arithmetic processing unit 113 causes the speech recognition unit 104 to start the speech recognition of the speech input from the microphone 224.
  • the sensor 227 is a sensor that detects the state of the external environment such as sound, light, and temperature, and the detection signal from the sensor 227 is converted into a digital signal by the A / D converter 105. Are sent to the arithmetic processing unit 113.
  • the arithmetic processing unit 113 controls the reaction of the electronic kit based on the data detected by the sensor 227.
  • the voice synthesizing device 114 synthesizes the voice emitted from the electronic pet under the control of the arithmetic processing device 113.
  • a program for performing speech synthesis by the speech synthesis device 114 and a program used as a basis for speech synthesis are stored in, for example, R ⁇ M 107.
  • this R ⁇ Ml 07 stores a data for synthesizing various sounds and the like emitted by the electronic unit.
  • the RAM 106 stores data necessary for the operation of the speech synthesizer 114.
  • the D / A converter 108 converts the audio data synthesized by the audio synthesizer 114 into digital-to-analog format and supplies the analog audio signal to the speaker 222.
  • the speaker 222 incorporates an amplifier and amplifies the sound from the D / A converter 108 and outputs the amplified sound.
  • the liquid crystal (LCD) display unit 222 includes a liquid crystal controller controlled by the arithmetic processing unit 113, and displays various images (for example, images of an electronic unit) and characters.
  • the virtual electronic device 220 and the socket robot 204 are connected via a USB (univer sal serial bus) cable as an example of a serial data cable.
  • USB universal serial bus
  • Transfer packet feature information The main configuration inside the virtual electronic socket device 220 and the socket-type robot 204 in this case is shown.
  • the CPU 23 1 of the virtual electronic device 22 0 corresponds to the arithmetic processing device 113 of FIG. 31, and the RAM 23 36 is the RAM I 15 of FIG. 31.
  • ROM 235 corresponds to ROM 116 in FIG.
  • the image control device 234 corresponds to a liquid crystal controller included in the liquid crystal display unit 222 of FIG.
  • the data storage unit 233 stores packet feature information. This pet feature information is transmitted and received to and from the pet-type robot 204 via a USB cable connected to the 1138 port 232.
  • the CPU 241 of the pet type robot 204 corresponds to the arithmetic processing unit 211 of FIG. 29, and the RAM 146 corresponds to the RAM 211 of FIG. Corresponds to ROM32.
  • the mechanism control device 244 controls the drive mechanism 52 of FIG. 5 based on the control of the CPU 241.
  • Data storage section 23 stores pet feature information. This pet feature information is transmitted and received to and from the virtual electronic device 220 via a USB cable connected to the USB port 242.
  • FIG. 33 the virtual electronic device 220 and the pet type robot 204 are connected by infrared rays via an infrared (IrDR) transmission / reception unit, and the pet feature information is transferred.
  • IrDR infrared
  • main internal configurations of the virtual electronic pet device 220 and the pet-type robot 204 will be described.
  • FIG. 33 the same components as those in FIG. 32 are denoted by the same reference numerals, and the description thereof will be omitted.
  • the infrared transmission / reception unit 237 of the virtual electronic device 220 is provided in the communication interface 112 of FIG. 31. It is.
  • the pet feature information is transmitted and received between the infrared transmitting / receiving section 237 and the infrared transmitting / receiving section 247 of the pet robot 204.
  • the infrared transmission / reception unit 247 of the pet robot 204 corresponds to the infrared transmission / reception unit 217 of FIG.
  • the pet characteristic information is transmitted and received between the infrared transmission / reception unit 247 and the virtual electronic device 220.
  • the virtual electronic socket device 220 and the pet-type robot 204 are connected wirelessly via a wireless transmission / reception unit so that the packet characteristic information is transferred.
  • the main internal configurations of the virtual electronic socket device 222 and the socket type robot 204 are shown.
  • the same components as those in FIG. 32 are denoted by the same reference numerals, and description thereof will be omitted.
  • the wireless transmission / reception unit 238 of the virtual electronic kit device 220 is provided in the communication interface 111 of FIG. 31.
  • the packet characteristic information is transmitted and received between the wireless transmitting / receiving unit 238 and the wireless transmitting / receiving unit 248 of the bed-type robot 204.
  • the wireless transmission / reception unit 248 of the pet robot 204 corresponds to the wireless transmission / reception unit 219 of FIG.
  • the packet characteristic information is transmitted / received between the wireless transmission / reception unit 248 and the wireless transmission / reception unit 238 of the virtual electronic cutout device 220.
  • the wireless transmission / reception units 248 and 238 of the pet-type robot 204 and the virtual electronic bed device 222 are, specifically, as shown in FIG. 8, 238 can be used.
  • Bluetooth is a 2.4 GHz unlicensed ISM (Industrial Science) This is a wireless interface that uses the band as a carrier frequency.
  • the bluetooth modules 2 4 8 and 2 3 8 are configured by adopting the bluetooth wireless interface.
  • the outline of B luetooth is as follows.
  • Bluetooth uses frequency hopping spread spectrum technology. Using 79 channels of 1 MHz width, it is possible to switch channels up to 160 times per second. This prevents interference with other wireless communications. Carrier sense is not performed because hopping is switched at high speed.
  • the maximum data transmission speed is 1 Mbit / sec.
  • the packet multiplexing method supports both TDD (Time Division Duplex) circuit switching and bucket switching. Up to three voice channels of 64 kbit / s can be secured simultaneously while performing asynchronous transmission.
  • Bluetooth-compatible devices are divided into “mass evening”, which determines the frequency hobbing pattern, and up to seven “slaves” that follow it.
  • a subnet consisting of a master and several slaves is called a piconet. Since the master can be a slave of the piconet, it is possible to form a network without connecting the piconet. For example, such a network configuration is called a scatter net.
  • communication management and device status are managed using an 8-bit MAC address.
  • Bluetooth devices support several modes with different power consumption depending on their participation in communication.
  • the specifications are designed to reduce power consumption by subdividing modes.
  • the link between the master and the slave is set as follows by Bluetooth. Is determined.
  • the master sends “Inquiry”, which is a message containing a key for connection and the like, at an interval of 625 / s. Since the slave always switches channels with a hopping pattern, it can be synchronized in about 2 seconds.
  • the master recognizes the slave, and the slave obtains a 3-bit "Active member addressj" and enters the piconet.
  • the factory active member addressj sends a 3-bit message to the device communicating with the master. This is the address information to be assigned.
  • the "Active member addressj" is assigned and a piconet is formed.
  • the master sends a “Page” message to the slave. From there, the slave operates according to the hopping pattern determined in the evening.
  • the encryption key used for authentication is created by the exclusive OR of the random number generated by the mask and the MAC address of the slave.
  • a dedicated key is handed over, simplifying the subsequent processing. Then, transfer to the overnight transmission and reception.
  • the above is the outline of Bluetooth.
  • the pet-type robot 204 and the virtual electronic device 220 transmit and receive the Bluetooth modules 248 and 238 using the Bluetooth wireless interface of Bluetooth. It can be provided as a shinbu.
  • FIG. 36 a personal computer 201 and a pet-type mouth bottle 204 are connected via a USB cable as an example of a serial data cable. And the personal computer 210 and the packet-type robot 204 when the packet characteristic information can be transmitted and received via the Internet 200
  • the main internal configuration is shown.
  • the same components as those in FIG. 32 are denoted by the same reference numerals, and description thereof will be omitted.
  • the CPU 25 1 of the personal computer 201 corresponds to a processor unit, and the ROM 255, the RAM 256, and the USB port 255 are generally provided in the personal computer. It is what is obtained.
  • the data storage section 233 corresponds to, for example, a hard disk or the like.
  • the packet feature information transmitted from, for example, the packet type robot 204 via the USB cable is transferred to the Internet 200. Also, the packet characteristic information received via the Internet 200 is transferred to the packet robot 204 via a USB cable.
  • the personal computer 201 and the pet-type mouth bot 204 are connected via infrared rays, and the personal computer 201 is connected via the personal computer 201 and the personal computer 201 via the internet 200.
  • the main configuration inside the personal computer 201 and the pet-type robot 204 when transmission / reception of packet characteristic information is enabled is shown.
  • the same components as those in FIGS. 36 and 33 are denoted by the same reference numerals, and description thereof will be omitted.
  • the personal computer 201 is provided with an infrared transmission / reception port 257, and is transmitted from, for example, a bed-type robot 204 using infrared rays. Transfer the packet feature information to the Internet 200, and the packet feature information received via the Internet 200 to the pet-type robot 204 using infrared rays. .
  • FIG. 38 shows the personal computer 210 and the pet-type mouth.
  • the same components as those in FIGS. 36 and 34 are denoted by the same reference numerals, and description thereof will be omitted.
  • the personal computer 201 includes a wireless transmission / reception unit 258, and has been transmitted from, for example, a robot-type robot 204 using radio.
  • the packet characteristic information is transmitted to the Internet 200, and the packet characteristic information received via the Internet 200 is transmitted to the packet-type robot 204 using radio.
  • the wireless transmission / reception units 248 and 238 of the pet robot 204 and the virtual electronic socket device 220 have a B1 uetooth module 248 as shown in FIG. , 2 3 8 can be used.
  • the modules 248 and 238 are configured by adopting the Bluetooth wireless interface.
  • Fig. 40 shows the case where the virtual electronic pet device and the pet-type robot are connected via serial data cable, infrared, wireless, etc., and the pet characteristic information is transferred.
  • the flow of the transmission / reception processing of FIG. The example of FIG. 40 shows a flow when the pet feature information is transferred from the virtual electronic pet device to the pet-type robot.
  • a connection request is made, for example, from a packet-type robot. That is, the pet-type robot first transmits a connection request signal to a virtual electronic pet device (represented as a portable electronic device in FIG. 40) as indicated by TR1 in the figure.
  • the connection request is For example, if the connection request can be made from either the pet robot or the virtual electronic device, the connection is performed from the robot. It is necessary to provide a switch or the like for switching which of the connection devices performs the connection request, and it is particularly preferable to provide such a switch for the kit-type robot in terms of design. (It is not preferable that various switches are provided on the robot as a pet.) Of course, the present invention is not limited to this.
  • a connection request can also be made from the device, and can be made from either the pet robot or the virtual electronic device.
  • the switch is not required, for example, by deciding to make a connection request from a pet-type robot.
  • the connection request signal transmitted from the packet-type robot includes whether the packet-type robot or the virtual electronic device has ownership of the packet characteristic information.
  • a flag indicating whether or not the soul is occupied is included in the ownership flag (Own-fig).
  • the value of the ownership flag is 1 (Own_flg).
  • the ownership flag of the virtual electronic pet device is (Own — F ig2 1).
  • the data request signal is transmitted to the virtual electronic device as indicated by TR3 in the figure.
  • the virtual electronic pet device Upon receiving the data request signal, the virtual electronic pet device transmits the pet feature information stored therein to the pet robot as indicated by TR4 in the figure.
  • FIG. 41 shows a flow in a case where the cut feature information is transferred from the cut type robot to the virtual electronic cutout device.
  • the pet-type robot is TR 11
  • a connection request signal including the ownership flag is transmitted to the virtual electronic device (represented as a portable electronic device in FIG. 41).
  • the value of the ownership flag at this time is 1 1).
  • a connection permission signal is transmitted to the robot as shown by TR12 in the figure.
  • FIG. 42 shows a communication flow when the ownership flag of the pet-type robot is the same as the ownership flag of the virtual electronic pet device.
  • the fact that the ownership flag of the pet robot is the same as that of the virtual electronic device means that the pet robot and the virtual electronic device are originally separate electronic devices. This indicates that packet characteristic information cannot be transmitted and received.
  • the virtual electronic pet device sets the reception end signal as indicated by TR22 in the figure. Send to the type robot and end the processing. Further, when the pet type robot receives the above-mentioned reception end signal, it ends the processing.
  • FIG. 43 shows an example of the data format of the connection request signal, connection permission signal, and reception end signal described above.
  • connection request signal includes a connection request ID, which is represented by 4 bytes, the number of communication bytes, which is the number of bytes used at the time of connection, the ownership flag (Own-fig), and its additional data. Consists of
  • connection permission signal is represented by 4 bytes each, and includes a connection permission ID, the number of communication bytes, an ownership flag (Ownjlg) and its additional data. Become.
  • the reception end signal is composed of a reception end ID, represented by 4 bytes, the number of communication bytes, an ownership flag (Own_flg), and its additional data.
  • the packet characteristic information of the electronic unit can be transmitted and received directly or via the Internet network. It is also possible that information is managed by a predetermined server 260 via the Internet 200. Hereinafter, this server is referred to as a pet sharing server.
  • the virtual electronic device 202, the personal computer 201, and the pet-type robots 204 and 204 are connected via the network 210.
  • the conceptual configuration of a network system that manages the network feature information and the like on the shared packet server 260 is shown.
  • the pet shared server 260 has a pet feature information storage unit 262 for storing pet feature information, and an electronic packet managed by the pet shared server. There is provided a data storage unit 261 having management information (shared server bet management information) storage unit 263.
  • Fig. 45 shows a virtual electronic device when the packet sharing server 260, the virtual electronic device 220, and the pet-type robot 204 are connected via the Internet 200.
  • the main internal configurations of the pet device 222 and the pet-type robot 204 are shown. Note that, in FIG. 45, the same components as those in the above-described drawings are denoted by the same reference numerals, and description thereof will be omitted.
  • the virtual electronic device 220 and the pet-type robot Since the socket 204 can be directly connected to the Internet 200, it has built-in modems 239 and 249, respectively. Through these modems 239 and 249, it becomes possible to connect to the packet sharing server 260 via the Internet 200, and various types of data including packet characteristic information can be transmitted. It can be managed on the Pet Sharing Server 260. As shown in FIG. 44 and FIG. 45, the packet sharing server 260 can manage the packet characteristic information of the electronic packet via the Internet 200. As shown in 46, for example, when leaving home due to a business trip or the like, the kit characteristic information of the electronic kit is managed by the kit sharing server. It is possible to take out the kit characteristic information and play with the electronic kit.
  • a pet-type robot is connected to the Internet to access the pet sharing server. I do.
  • the pet-type robot automatically selects “keep” requesting to deposit the pet feature information in the server.
  • the pet feature information is uploaded to the server from the pet robot.
  • the unique robot information stored in 0M of the pet-type robot is required. The ID and password are transferred to the server at the same time.
  • a portable terminal portable virtual electronic device or personal computer
  • a packet sharing server to access.
  • a plurality of menu items are displayed on the image display unit of the portable terminal (the image display unit of the portable virtual electronic pet device and the monitor of the personal computer).
  • there are items such as "Custody” and "Delivery”. In this case, "Delivery" must be selected.
  • the user inputs an ID and a password in order to prevent mistakenly picking up another electronic pet.
  • the mobile terminal downloads the packet characteristic information of the electronic device deposited in the packet sharing server. As a result, the user can breed an electronic device on the portable terminal or play with the electronic device even on a business trip.
  • a portable terminal is connected to the Internet to access the packet sharing server.
  • a plurality of menu items are displayed on the video display unit of the mobile terminal.
  • the mobile terminal applies the packet feature information to the server.
  • the robot is connected to the Internet and connected to the Internet sharing server.
  • the pet type robot automatically selects “takeover” requesting to take out the pet feature information from the server.
  • the pet feature information is downloaded from the server to the pet robot.
  • a pet-type robot is made to play in a virtual world 261, as an electronic kit 263. It is also possible for the user himself to enter the virtual world 261, as an avatar 262, and play with his own electronic pet. Ababa Evening is the incarnation of God that appears in Indian mythology. This avatar is a surrogate character for the user in the virtual world drawn by two-dimensional and three-dimensional computer graphics.
  • the user's own avatar 262 and electronic kit 263 are used, and the other user's avatar 264 and electronic kit 265 are present in the network. It is possible to communicate with each other by putting it on a virtual world 260 built on the work.
  • the virtual electronic pet device 220 and the pet-type robot 204 are connected to the network 210 by modems 239 and 249.
  • connection can be made by a Bluetooth module as a wireless means.
  • the socket robot 204 and the virtual electronic socket device 220 use the Bluetooth modules 2449a and 2339a as wireless transmission / reception units.
  • Bluetooth modules 249b and 239b are connected to the Internet network (for example, a public telephone line), and the pet-type robot 204 and the virtual electronic unit are connected. Data is transmitted and received between the Bluetooth module 24 9 a and 23 9 a of the device 220.
  • each of the Bluetooth modules 239a, 249a, 239b, 249b is configured using a Bluetooth wireless interface as described above.
  • VRML enables the setting of hypertext links to objects described in three-dimensional space and three-dimensional graphics, so that the WWW server can be accessed one after another while following these links.
  • This is a 3D graphics description language, and a VRML browser has been developed to display the 3D space described by this VRML.
  • VRML 2.0 data consists of nodes and fields.
  • the field passes variables to the node and specifies the parameters of the node.
  • the field can be omitted, and if the field is omitted, the default value is used.
  • SF single-value field
  • MF multi-value field
  • VRML 2.0 is used to realize autonomous movement (Behavior) in the VRML virtual space.
  • This autonomous behavior (Behavior) mechanism see http: //webspace.sgi. Com / moving-wor Ids / spec / part 1 / concepts .html and its Japanese version 3 ⁇ 4 http://wwv.webcity.co.jp/info/andoh/VRML/VilML2.0/spec-jp/partl/concepts 4, The specification of the Virtual Reality Modeling Language Version 2.0, ISO / IEC CD 14772, 1996, in Section 4. Concepts, which contains the key concepts for using the VRML specification.
  • FIG. 49 shows a specific configuration diagram of the network system according to the third embodiment.
  • the components denoted by reference numerals 301, 302, and 303 in the figure are VRML browsers and WWW browsers installed, and are the above-described personal computers on which these are operating.
  • a certain client; a PC which is connected to the Internet 307 via Internet connection service providers 304, 305, and 306.
  • the LAN (Local Area Network) 309 connected via the Internet 307 and the Internet 308 has a WWW server 310, a WLS (World Location Server) 311
  • the shared server 312, the AO servers 313, 314, the mail server 315, and the communication server 316 are connected.
  • Each of the servers 310 to 316 is provided with a hard disk (HDD) 310a, 310b, and 31a to 316a, respectively.
  • HDD hard disk
  • the communication server 316 is connected to a telephone 318 and a facsimile 319 via a public telephone line network 317, and further via a PHS (Personal Handyphone System) service provider 320. Wirelessly connected to the PHS terminal 3 23, and to the pager terminal 324 via the pager service provider 3 21.
  • PHS Personal Handyphone System
  • FIG. 50 is a block diagram showing a hardware configuration of the client PC 301 of FIG.
  • the client PC 301 includes a CPU 330 that controls each unit, a VRML 2.0 file, a script program of a virtual life object using Java (trademark), and the like.
  • It consists of an I / 0 (input / output) interface 340, a graphics processing circuit 343 with a built-in VRAM 344, a CRT monitor 345, a RAM 346, and the like.
  • the above-mentioned RAM 346 includes a WWW browser (for example, Netscape Navigator (trademark)) that runs on an OS (for example, Microsoft Windows) at the time of execution, and an interpreter (for example, Java interpreter).
  • a VRML 2.0 browser for example, Co Marauder unity Place Browser developed by Sony Corporation is loaded and executed by the CPU 330.
  • the VRML 2.0 browser includes a VRML parser (parser) (for example, QvLib, which is developed by Silicon Graphics Corporation of the United States and released for free), and a software tuner. Ltd.'s RenderWare etc.) are implemented.
  • a VRML parser parser
  • QvLib which is developed by Silicon Graphics Corporation of the United States and released for free
  • the VRML of the client PC is connected to a WWW browser (for example, Netscape Navigator) by, for example, NCAPI (Netscape Client Application Programming Interface, trademark). Exchange of various data based on this.
  • a WWW browser for example, Netscape Navigator
  • NCAPI Netscape Client Application Programming Interface, trademark
  • the WWW browser is connected to a WWW server via the Internet 307.
  • HTML file and the VRML content including the VRML file and the script program
  • these are stored in the personal HDD 331, respectively.
  • the WWW browser processes the HTML file and displays the text image on the CRT monitor
  • the VRML browser processes the VRML file and displays the 3D virtual space on the CRT monitor.
  • the behavior of the object in the 3D virtual space is changed according to the processing result of the script program by pre-editing.
  • the other clients PC302 and 303 have the same configuration as the client PC301.
  • FIG. 51 see Fig. 51 to Fig. 53 for the procedure from actually downloading VRML content via the Internet to creating a multi-user environment where one virtual space is shared by multiple users.
  • a WWW browser is used to browse a homepage of, for example, a website providing VRML content.
  • L2 the user of the client PC 301 and the client PC 302 receives the VRM L2.0 file and the autonomous movement (VR) in the VRML space.
  • download VRML contents consisting of a script program (for example, a script program in Java).
  • the VRML contents provided on the CD-ROM drive 33 may be read by the CD-ROM drive 33.
  • the client PC 301 and the client The VRPC 2.0 browser interprets the VRM L 2.0 file, which is downloaded to each of the PCs 302 and temporarily stored on the local HDD 331, and executes it.
  • the ULS of the packet sharing server 312 is inquired to the WLS 311 based on the VSCP (Virtual Society Server Client Protocol).
  • the WLS 311 refers to the shared server URL management table stored in the HDD 311a, and refers to the client PC 301 and the client PC 311. For 0 2, the URL of the pet shared server 3 1 2 is notified.
  • the client PC 301 and the client PC 302 connect to the pet sharing server 3 12 using the URL.
  • a shared message relating to the position and movement of the shared 3D (three-dimensional) object is transmitted via the packet shared server 312.
  • the transfer is performed and a multi-user environment is realized.
  • the packet sharing server 312 sends a request to the client PC 301, that is, to the client PC 301, when a mouth login is made from the user.
  • the data of the virtual shared world is transmitted, and the data of the virtual life object in the A0 server 3 13 is transferred.
  • the client PC 301 When the client PC 301 receives the entire data of the virtual shared world and the data of the objects in the virtual shared world, the client PC 301 records the data on the internal hard disk or stores it in the internal memory. Then, the virtual shared world is displayed on the monitor screen based on the recorded data.
  • the client PC 301 puts its own avatar 262 and electronic packet 263 in the virtual sharing world, for example, via the bet sharing server 312 Send call message to AO server 3 13.
  • the parameter overnight update process is executed based on the access event.
  • the operation message is transmitted to the A0 server 313, and the parameter is updated every time an operation event occurs.
  • the client PC 301 and the other client PC 310 sharing the virtual space are shared by the pet sharing server 312 by multicast processing. Transferred to 2.
  • a script program describing a processing procedure for controlling the autonomous behavior of the electronic packet is executed, and the VRML file electronic pet is executed.
  • the value of the field of each node constituting the three-dimensional object for expressing the image is changed, and an electronic kit reflecting the changed value of the field is rendered. It is displayed on the main window of the VRML browser on the screen of the video display section.
  • the same processing as that of the client PC 301 is also performed in the other client PCs 302 sharing the virtual space, and thereby the field values changed according to the movement of the electronic tablet and the like. Is rendered on the main window of the VRML browser on the video display of the other client PC 302. Will be shown.
  • an information providing medium for providing a user with a computer program for performing the above-mentioned processing includes information recording media such as a magnetic disk and CD_RTM, as well as the Internet and digital satellites. It also includes transmission media via networks.

Description

明細 : 電子ペッ トシステム、 ネッ トワークシステム、 ロボッ ト、 及び記憶 媒体 技術分野
本発明は、 電子ペッ トシステム、 ネッ トワークシステム、 ロボッ ト、 及び記憶媒体に関し、 特に、 例えば電子ペッ トを各種の装置で 実現することができるようにする電子ぺッ トシステム、 ネッ トヮ一 クシステム、 ロボッ ト、 及び記憶媒体に関する。 背景技術
最近は、 実際の動物をぺッ トとして飼うよりも手軽であること等 の理由から、 いわゆる電子ペッ ト装置 (或いは、 育成シミュレーシ ヨンゲーム機) が流行している。
電子ぺッ ト装置では、 仮想的な生命体のオブジェク 卜が電子ぺッ トとして表示され、 例えば飢え (空腹) や疲れの程度などの電子べ ッ トの状態が、 飼い主 (電子ぺッ ト装置のユーザ) に画像または音 声で知らされる。 飼い主 (ユーザ) は、 電子ペッ トの状態に応じて、 電子ぺッ ト装置を操作することにより、 当該電子ぺッ トに対して例 えば餌を与えたり遊んであげたりする。 これにより、 電子ペッ トは、 このような飼い主の対応に基づいてその状態 (電子ぺッ 卜の状態) が変化し、 育成されていくことになる。 また、 電子ペッ トは時間の 絰過とともに成長し、 従って、 当該電子ペッ トの状態は時間の経過 によっても変化していく。 ところで、 電子ペッ ト装置では、 表示画面上に電子ペッ トを表示 するのみであり、 従って、 当該表示されている電子ペッ トはいわば 仮想的な存在である。
一方、 実体として存在する例えばロボッ トによって電子ぺッ トを 実現した場合、 当該電子ぺッ トとしてのロボッ トは現実世界に実在 するものとなる。 この場合、 飼い主 (ユーザ) は、 当該電子ぺヅ 卜 としてのロボッ 卜に対して、 電子ぺッ ト装置に表示される電子ぺッ トよりも、 実際にペッ トを飼っている場合に近い感覚を持つことに なる。
しかしながら、 電子ぺッ トをロボッ 卜で実現した場合、 例えば旅 行するときなどにおいてそのロボッ トを持ち運ぶのは不便である。 従って、 電子ペッ トを、 例えばあるときは実際の存在としてのロボ ッ トにより実現し、 他の場合には携帯可能な電子ぺッ 卜装置におい て仮想的な存在として実現することができれば、 より便利である。 また、 従来の電子ぺッ ト装置などで実現されている電子ぺッ トは、 一般に、 ユーザからの入力か、 または時間の経過に対応して、 その 状態が変化し、 アクションを起こすようになされているため、 実際 の動物をぺッ 卜している場合に比べてリアリティに欠けることがあ つた。
すなわち、 実際の動物である犬をぺッ トとしているような場合を 例に挙げると、 当該犬は、 遊んでほしい場合に、 吠えたり尻尾を振 つたり して、 飼い主の注意を引こうとすることがある。 また、 この 場合に、 例えば飼い主が無視していると、 犬は疲れて、 吠えたり尻 尾を振ったりするのを止め、 例えば寝るなどの行動をとる。 そして、 実際の動物のぺッ トは、 例えば寝たことによって機嫌がよくなるこ ともある。
これに対して、 従来の電子ぺッ ト装置などで実現されている電子 ぺッ ト (例えば犬の電子ぺッ ト) の場合は、 例えば、 遊んでほしい ときに吠えたり尻尾を振ったりする行動をとり続けるか、 或いは、 時間の経過によってそのような行動をとるのを止めるだけであり、 実際の動物のペッ ト (例えば犬) のように、 吠えたり尻尾を振った りすることによって疲れて寝るようなことはない。 すなわち、 従来 の電子ぺッ ト装置にて実現されている電子ぺッ 卜においては、 例え ば、 吠えたり尻尾を振ったりするという、 電子ペッ ト自身の行動に 対応して、 当該電子ペッ トの状態が変化するようなことはなく、 従 つて、 そのような電子ぺッ ト自身の行動に起因する状態の変化に対 応して、 電子ぺッ トが行動 (アクション) を起こすこともなかった こういった理由から、 より リアリティのある電子ぺッ 卜の提供も望 まれる。 発明の開示
本発明は、 より リアリティのある電子ペッ トなどを、 各種の装置 で実現することができるようにする、 電子ペッ トシステム、 ネッ ト ワークシステム、 ロボッ ト、 及び記憶媒体を提供することを目的と する。
具体的には、 本発明に係る電子ペッ トシステムは、 情報処理装置 とロボッ トとを備えている。 情報処理装置は、 入力情報に応じて変 化し、 電子ぺッ トを行動させるための情報となる電子ぺッ トの内部 状態を送受信可能な送受信手段と、 画像表示手段とを有し、 電子べ ッ トを画像表示手段にて具現化するための処理を行う。 また、 ロボ ッ トは、 入力情報に応じて変化し、 電子ぺッ トを行動させるための 情報となる電子ぺッ 卜の内部状態を送受信可能な送受信手段と、 実 世界にて動作する動作部とを有し、 動作部を制御して、 電子ペッ ト を実世界の存在として具現化するための処理を行う。
このような電子ぺッ トシステムにより、 入力情報に応じて電子べ ッ 卜の内部状態を変化させて、 当該内部状態に基づいて電子ぺッ ト を行動させる情報処理装置とロボッ 卜との間で、 当該内部状態の送 受信を行う。 そして、 情報処理装置はロボッ トから送られてきた内 部状態に基づいて行動し、 一方、 ロボッ トは情報処理装置から送ら れてきた内部状態に基づいて行動する。
また、 本発明に係る電子ペッ トシステムは、 情報処理装置とロボ ッ トとを備えている。 情報処理装置は、 入力情報に応じて変化し、 電子ぺッ トを行動させるための情報となる電子ぺッ トの内部状態を 無線にて送受信可能な無線送受信手段と、 画像表示手段とを有し、 電子ぺッ トを画像表示手段にて具現化するための処理を行う。 また、 ロボッ トは、 入力情報に応じて変化し、 電子ぺッ トを行動させるた めの情報となる電子ぺッ 卜の内部状態を無線にて送受信可能な無線 送受信手段と、 実世界にて動作する動作部とを有し、 動作部を制御 して、 電子ぺッ トを実世界の存在として具現化するための処理を行 ラ。
このような電子べッ トシステムにより、 入力情報に応じて電子べ ッ 卜の内部状態を変化させて、 当該内部状態に基づいて電子ぺッ ト を行動させる情報処理装置とロボッ トとの間で、 無線にて当該内部 状態の送受信を行う。 そして、 情報処理装置はロボッ トから送られ てきた内部状態に基づいて行動し、 一方、 ロボッ トは情報処理装置 から送られてきた内部状態に基づいて行動する。
また、 本発明に係るネッ トワークシステムは、 1以上の具現化装 置とサーバ装置とを備えている。 具現化装置は、 入力情報に応じて 変化し、 生命体ォブジェク トを行動させるための情報となる生命体 オブジェク トの内部状態と、 当該生命体オブジェク 卜の識別情報と を送受信可能な送受信手段を有し、 生命体オブジェク トを具現化さ せる。 また、 サーバ装置は、 生命体オブジェク トの内部状態と当該 生命体ォブジェク トの識別情報とを管理する管理手段と、 少なく と も内部状態及び識別情報を送受信可能な送受信手段とを有する。 そ して、 ネッ 卜ワークを介して具現化装置とサーバ装置の間を接続す る。
このようなネッ トワークシステムにより、 具現化装置の生命体ォ ブジェク トは、 その内部状態及び識別情報がサーバ装置において管 理される。
また、 本発明に係るネッ トワークシステムは、 具現化装置と情報 処理装置とを備えている。 具現化装置は、 入力情報に応じて変化し、 生命体オブジェク トを行動させるための情報となる生命体ォブジェ ク トの内部状態を送受信可能な送受信手段を有し、 生命体オブジェ ク トを具現化させる。 また、 情報処理装置は、 生命体オブジェク ト の内部状態を送受信可能な送受信手段と、 生命体ォブジェク 卜の内 部状態に基づいて、 仮想世界で活動する生命体ォブジェク 卜の行動 を制御し、 少なく とも仮想世界と生命体ォブジェク トを表示するた めの処理を行う。
このようなネッ トワークシステムにより、 入力情報に応じて変化 され、 行動を出現させるための情報とされる具現化装置における生 命体オブジェク 卜の内部状態を、 少なく とも仮想世界と生命体ォブ ジェク トを表示するための処理を行う情報処理装置に対して転送す る。
また、 本発明に係るロボッ トは、 人力情報に応じて変化し、 生命 体ォブジェク トを行動させるための情報となる生命体ォブジェク ト の内部状態を記憶し、 動作部を制御して、 生命体オブジェク トを実 世界の存在として具現化するための処理を行うロボッ 卜であって、 ロボッ トの生命体オブジェク 卜の内部状態に基づいて、 仮想世界で 活動する生命体オブジェク 卜の行動を制御し、 少なく とも仮想世界 と生命体オブジェク トを表示するための処理を行う情報処理装置に 対して、 少なく とも内部状態を転送する。
このようなロボッ トは、 入力情報に応じて変化され、 行動を出現 させるための情報とされる内部状態を、 少なく とも仮想世界と生命 体オブジェク トを表示するための処理を行う情報処理装置に対して 転送する。
また、 本発明に係る記録媒体は、 情報処理装置にて使用可能なデ —夕を記憶し、 情報処理装置に設けられたスロ ッ 卜へ着脱可能な記 憶媒体において、 情報処理装置のスロッ トに装填された時に、 正確 な装填位置を示すための指示手段を有する。
これにより、 ユーザは、 指示手段を参照しながら、 情報処理装置 のスロ ッ トに当該記録媒体を装填する。 図面の簡単な説明
図 1は、 本発明を適用した電子ぺッ トシステムの一実施の形態の 概要を示すプロック図である。 図 2は、 電子ペッ トシステムの、 より具体的な構成例を示す図で ある。
図 3は、 電子ぺッ トシステムの本体部の構成例を示すブロック図 である。
図 4は、 仮想電子ぺッ ト装置のハードウェア構成例を示すブロッ ク図である。
図 5は、 ぺッ ト型ロボッ 卜のハ一ドウエア構成例を示すブロック 図である。
図 6は、 ペッ ト型ロボッ トの外観形状の具体的構成を示す斜視図 である。
図 7は、 ペッ ト型ロボッ トのより具体的な回路構成を示すブ口ッ ク図である。
図 8は、 コントローラの構成を示すブロック図である。
図 9は、 感情 ·本能モデル部の構成を示すブロック図である。 図 1 0は、 感情 · 本能モデル部における情動群を示すプロック図 である。
図 1 1は、 強度増減手段を備えた感情 ·本能モデル部の構成を示 すブロック図である。
図 1 2は、 行動指令情報の生成について説明するために使用した 行動決定機構部等の構成を示すプロック図である。
図 1 3は、 行動モデルの有限確立ォートマトンの状態遷移を示す 図である。
図 1 4は、 状態遷移表を示す図である。
図 1 5は、 姿勢遷移機構部における姿勢遷移のグラフを示す図で ある。 図 1 6は、 姿勢遷移のグラフの具体例を示す図である。
図 1 7は、 ペッ ト型ロボッ 卜の概略構成を示す斜視図である。 図 1 8 A及び Bは、 基本姿勢を取り入れて、 全体と部位との間で 姿勢を遷移させる場合の説明をするために使用した図である。 図 1 9は、 現在の姿勢が全体にあり、 目標の動作が部位にある場 合において、 基本姿勢に一旦遷移させてから目標とする動作を実行 する場合の説明に使用した図である。
図 2 0は、 現在の姿勢が部位にあり、 目標の動作が全体にある場 合において、 基本姿勢に一旦遷移させてから目標とする動作を実行 する場合の説明に使用した図である。
図 2 1は、 個体情報記憶部 ( I Cカード) に記憶されるペッ ト特 徴情報を示す図である。
図 2 2は、 色分けされた I Cカードの説明に使用した図である。 図 2 3は、 色分けされると共に矢印マークが付加されたスティ ッ ク状の I Cカードの説明に使用した図である。
図 2 4は、 色分けされると共に境界位置を示すラインが付加され たスティ ック状の I C力一ドの説明に使用した図である。
図 2 5は、 スロッ ト内に正確に装填されたスティ ック状の I C力 ―ドの説明に使用した図である。
図 2 6は、 スティ ック状の I Cカードに貼り付けられるラベルの 一例の説明に使用した図である。
図 2 7 A及び Bは、 ステイ ツク状の I C力一ドの底面と側面を示 す図である。
図 2 8は、 本発明の第 2の実施の形態の接続例を示す図である。 図 2 9は、 第 2の実施の形態のぺッ 卜型ロボッ 卜の主要部のハ一 ドウェア構成を示すプロック図である。
図 3 0は、 第 2の実施の形態の仮想電子ぺッ ト装置の外観構成を 示す正面図である。
図 3 1は、 第 2の実施の形態の仮想電子ぺッ ト装置の主要部のハ —ドゥエァ構成を示すブロック図である。
図 3 2は、 仮想電子べッ ト装置とぺッ ト型ロボッ トを U S Bケー ブルで接続した接続例を示すブロック図である。
図 3 3は、 仮想電子ぺッ ト装置とぺッ ト型ロボッ トを赤外線を使 用して接続した接続例を示すプロック図である。
図 3 4は、 仮想電子ぺッ ト装置とぺッ ト型ロボッ トを無線を使用 して接続した接続例を示すプロック図である。
図 3 5は、 仮想電子ぺッ ト装置とぺッ ト型ロボッ トを B luetoothモ ジュールを使用して接続した接続例を示すプロック図である。
図 3 6は、 ぺッ ト型ロボッ 卜とパーソナルコンピュータを U S B ケーブルで接続し、 パーソナルコンピュータをィン夕一ネッ 卜に接 続した接続例を示すプロック図である。
図 3 7は、 ぺッ ト型ロボヅ 卜とパーソナルコンピュータを赤外線 を使用して接続し、 パーソナルコンピュータをイン夕一ネッ 卜に接 続した接続例を示すブロック図である。
図 3 8は、 ぺッ ト型ロボッ トとパーソナルコンピュータを無線を 使用して接続し、 パーソナルコンピュー夕をィン夕一ネッ 卜に接続 した接続例を示すブロック図である。
図 3 9は、 ぺッ ト型ロボッ 卜とパーソナルコンピュー夕を Blueto othモジュールを使用して接続し、 パーソナルコンピュータをイン夕 ーネッ トに接続した接続例を示すプロック図である。 図 4 0は、 仮想電子べッ ト装置からぺッ ト型ロボッ 卜へぺッ ト特 徴情報を転送する際の流れを示す図である。
図 4 1は、 ペッ ト型ロボッ トから仮想電子べッ ト装置へぺッ ト特 徴情報を転送する際の流れを示す図である。
図 4 2は、 ぺッ ト型ロボッ トと仮想電子べッ 卜装置との間でぺッ ト特徴情報の転送が行われない場合の流れを示す図である。
図 4 3は、 接続要求信号、 接続許可信号、 受信終了信号のデータ フォーマツ トを示す図である。
図 4 4は、 電子ペッ トをぺッ ト共有サーバにて管理する場合のシ ステム構成例を示す図である。
図 4 5は、 電子ぺッ トを共有サーバにて管理するシステム構成に おける、 ぺッ ト型ロボッ トと仮想電子ぺッ ト装置のハードウヱァ構 成例を示すブロック図である。
図 4 6は、 共有サーバに電子ぺッ トを預ける場合及び引き取る場 合の具体例の説明に使用した図である。
図 4 7は、 電子ぺッ 卜とユーザのアバ夕が仮想世界上に存在する 例を概念的に示す図である。
図 4 8は、 電子ぺッ トを共有サーバにて管理するシステム構成に おける、 ぺッ ト型ロボッ 卜と仮想電子ぺッ ト装置のハ一ドウエア構 成例であって、 ぺッ 卜型ロボッ トと仮想電子ぺッ ト装置が B luetoot hモジュールを使用してィン夕一ネッ トと接続されている状態を示す プロック図である。
図 4 9は、 電子ぺッ トとユーザのアバ夕を仮想世界上に存在させ る場合のシステムの詳細な構成を示すプロック図である。
図 5 0は、 図 4 9のシステムに使用されるクライアン ト P Cの構 成例を示すブロック図である。
図 5 1は、 図 49のシステムにおいて、 VRMLコンテンツを提 供するウェブサイ 卜のホームページの閲覧からクライアン ト P Cに VRMLコンテンツをダウンロードするまでの処理の流れの説明に 使用した図である。
図 5 2は、 図 49のシステムにおいて、 クライアン ト P Cによる VRML 2. 0ファイルの解釈 ' 実行と、 共有サーバの UR Lの問 い合わせまでの処理の流れの説明に使用した図である。
図 5 3は、 複数のクライアン ト P Cが共有サーバを介して 3次元 オブジェク トに関するデータを受信してマルチユーザ環境を実現す る処理の流れの説明に使用した図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 図面を用いて詳しく説明す る。
図 1には、 本発明を適用した第 1の実施の形態としての電子ぺッ トシステム (本明細書中において、 システムとは、 複数の装置が論 理的に集合した物をいい、 各構成の装置が同一筐体中にあるか否か は問わない) の概要を示している。
電子ペッ トシステムは、 図 1に示すように、 個体情報記憶部 1及 び本体部 2を備えている。
例えば、 生命体である動物は、 肉体と、 その肉体に宿って心の働 きを司る魂とからなると考えられる。 電子ぺッ トシステムの個体情 報記憶部 1は動物のそのような魂に対応し、 電子ぺッ トにおいてハ 一ドウエアとして構成され、 また、 本体部 2は動物のそのような肉 体に対応し、 電子ぺッ トにおいてソフ トウエアとして構成される。 すなわち、 個体情報記憶部 1は、 電子ぺッ 卜の特徴 (感情や肉体 の特徴) を表現するが、 電子ペッ トの魂として機能するものと言え る。 また、 本体部 2は、 電子ペッ トのアクション (行動) を表現す るが、 電子ぺッ トの実体的或いは仮想的な肉体を具現化するもので あり、 これら実体的或いは仮想的な肉体をもって実際のァクション を実現するものとして機能するものと言える。 本体部 2のァクショ ンは、 個体情報記憶部 1が有する電子ぺッ 卜の特徴に基づいて行わ れ、 従って、 個体情報記憶部 1は、 電子ぺッ 卜のコア (core ) とい うことができる。
また、 個体情報記憶部 1は、 本体部 2から抜き出すことができ、 また、 他の本体部 2 2 2 , · · ' に装着する (宿す) ことができ るようになされている。 ここで、 個体情報記憶部 1が装着されてい ない本体部 2は、 電子ペッ トとしては機能しなくなる。 いわば、 電 子ぺッ トはいわば抜け殻状態となる。
一方、 個体情報記憶部 1が宿された他の本体部は、 元の特徴をそ のまま有する電子ぺッ トとして機能するようになる。 すなわち、 い わば、 電子ペッ トの魂は、 肉体の乗換えが可能になっている。
図 2は、 図 1の電子ペッ トシステムの、 より具体的な構成例を示 している。
図 1の個体情報記憶部 1は、 例えば、 I C ( Integrated c ircui t) カード 2 1などで実現される。 I Cカード 2 1は、 例えば、 切手 フラッシュメモリなどを内蔵し、 後述するような電子ぺッ トの本能 及び感情の特徴量や本体部の構成情報 (以下、 ペッ ト特徴情報とい う。 ) を記憶する。 図 1の本体部 2は、 例えば仮想電子ぺッ ト装置 2 2ゃぺッ ト型ロ ボッ ト 2 3などにより実現される。 仮想電子ぺッ ト装置 2 2は、 仮 想的な電子ぺッ トを表示するための処理を行う携帯型の情報処理装 置などからなり、 I Cカード 2 1を装着するためのスロッ ト 2 2 A を有している。 また、 ペッ ト型ロボッ ト 2 3は、 電子ぺッ トの形状 をしたロボッ トであり、 やはり、 I Cカード 2 1を装着するための スロッ ト 2 3 Aを有している。 なお、 本発明の各実施の形態では、 ぺッ ト型ロボッ 卜の一例として 4足型のロボッ トを例に挙げている が、 もちろん 4足型口ボッ トに限らず、 例えば 2足型のロボッ トゃ 翼を持ったロボッ ト、 車輪を持ったもの、 無足型、 更には各種の部 品を組み合わせたり変形させたり して任意の形態をとり得るものな ど、 ロボッ トの形態については特に限定はなく、 各種の形態のロボ ッ トについて本発明は適用可能である。
仮想電子ぺッ ト装置 2 2及びぺッ ト型ロボッ ト 2 3は、 何れも電 子ぺッ 卜の本体部として機能する装置であり、 それだけではァクシ ヨンを起こさない。 すなわち、 仮想電子ペッ ト装置 2 2及びペッ ト 型ロボッ 卜 2 3は、 I Cカード 2 1を装着することで、 電子ぺヅ ト として機能するようになる。 つまり、 仮想電子ぺッ ト装置 2 2の場 合は、 そのモニタ上に電子ペッ トが表示され、 当該モニタ上に表示 された電子ぺッ トが、 I Cカード 2 1に記憶されたぺッ ト特徴情報 に基づいてアクションを起こす。 同様に、 ペッ ト型ロボッ ト 2 3は、 I Cカード 2 1に記憶されたぺッ 卜特徴情報に基づいてァクション を起こす。
このような電子ペッ トシステムにより、 ュ一ザは、 例えば在宅中 においては I Cカード 2 1をぺッ ト型ロボッ ト 2 3のスロッ ト 2 3 Aに装着することで、 実際にぺッ トを飼っている場合に近い感覚を 享受することができる。 また、 ユーザは、 例えば旅行を行うような 場合においてはぺッ ト型ロボッ ト 2 3から I C力一ド 2 1を取り外 し、 当該 I Cカード 2 1を仮想電子ぺッ ト装置 2 2に装着すること により、 その電子ぺッ トを旅行先に容易に携帯することができる。 次に、 図 3は、 図 1の本体部 2の電気的構成例を示している。 な お、 本体部 2については、 仮想電子ぺッ ト装置 2 2及びぺッ ト型ロ ボッ ト 2 3それぞれに適用した形態として、 後でさらに詳述する。
I / F ( Interface) 1 0は、 図 2における仮想電子ペッ ト装置 2 2のスロヅ ト 2 2 Aゃぺッ ト型ロボッ ト 2 3のスロッ 卜 2 3 Aに相 当し、 個体情報記憶部 1 と本体部 2との間でデータをやりと りする ためのイン夕一フェイスとして機能する。 すなわち、 I / F 1 0は、 個体情報記憶部 1から、 電子ぺッ 卜の本能及び感情の特徴及び本体 部構成を表現する情報 (ペッ ト特徴情報) を読み出し、 内部状態計 算部 1 1に供給する。 また、 I / F 1 0は、 内部状態計算部 1 1に おける所定の計算の結果得られる情報を、 個体情報記憶部 1に書き 込み、 その記憶内容を更新する。
内部状態計算部 1 1には、 上述したように I / F 1 0からぺッ ト 特徴情報が供給される他、 外的入力部 1 2及び時間入力部 1 3から も、 入力が与えられるようになされている。 さらに、 内部状態計算 部 1 1には、 行動変換部 1 5において得られる、 電子ぺッ 卜の具体 的なアクションもフィードバックされるようになされている。 内部 状態計算部 1 1は、 モデル記憶部 1 4に記憶されている感情と本能 のモデルを、 I / F 1 0、 外的入力部 1 2、 時間入力部 1 3、 また は行動変換部 1 5からの入力に対応して駆動し、 電子ぺッ 卜の内部 状態を更新する。 電子ペッ トの内部状態は、 後述するように I / F 1 0からのぺッ ト特徴情報に含まれる感情や本能の情報に関するも のであり、 更新された内部状態は、 I / F 1 0を介して個体情報記 憶部 1に書き込まれる。 また、 内部状態計算部 1 1は、 更新後の内 部状態に基づいて、 電子ペッ トに行わせる動作 (概念的な動作) を 決定し、 その動作 (概念的な動作) を行うように指示する命令 (動 作命令) を、 実際の行動を出力する制御を行う行動変換部 1 5に出 力する。
外的入力部 1 2は、 ユーザ、 さらには環境などの外部から与えら れる刺激を、 内部状態計算部 1 1に供給するようになされている。 本体部 2が例えば仮想電子ぺッ 卜装置 2 2である場合には、 外的 入力部 1 2は、 キーボード (またはスィ ッチやボタン) やマイク (マイクロフォン) 及び音声認識装置などからなり、 例えばユーザ が電子ぺッ 卜の世話をするために行った操作や発した音声を、 電気 信号にして内部状態計算部 1 1に供給する。
また、 本体部 2が例えばぺッ ト型ロボッ ト 2 3である場合には、 外的入力部 1 2は、 キーボードやマイク及び音声認識装置、 光電変 換素子及び画像認識装置、 センサ (例えば、 温度センサなど) など でなり、 やはりユーザが電子ぺッ トの世話をするために行った操作 や発した音声を電気信号にして、 内部状態計算部 1 1に供給する他、 周囲にある物や温度などの情報を、 内部状態計算部 1 1に供給する。 時間入力部 1 3は、 時刻 (年月日を含む) を計時しており、 その 時刻 (現在時刻) を内部状態計算部 1 1に供給するようになされて いる。
モデル記憶部 1 4は、 電子ペッ トの感情及び本能のモデル (感情 - 本能モデル) を記憶している。 電子ぺッ 卜の感情としては、 例え ば、 うれしさ、 悲しさ、 怒り、 驚き、 恐れ、 及び嫌悪などが設定さ れており、 モデル記憶部 1 4は、 これらの感情のモデル (例えば、 これらの感情を表すパラメ一夕を求めるための計算式) を記憶して いる。 また、 電子ぺッ 卜の本能としては、 例えば、 運動欲、 愛情欲、 食欲、 及び好奇心などが設定されており、 モデル記憶部 1 4は、 こ れらの本能のモデルも記憶している。 ここで、 感情の状態と本能の 状態とで、 電子ぺッ 卜の内部状態を構成する。
なお、 本体部 2は、 仮想電子ペッ ト装置 2 2である場合と、 ぺッ ト型ロボッ ト 2 3である場合とにかかわらず、 同一構成の感情と本 能のモデルを有している。 これにより、 I Cカード 2 1を、 仮想電 子ぺッ 卜装置 2 2とぺッ ト型ロボッ ト 2 3との間で入替えしたとし ても、 電子ペッ トの特徴やアクションが、 異なった電子ペッ トのも のに変化しないようになっている。
行動変換部 1 5は、 内部状態計算部 1 1からの概念的な動作命令 を、 本体部 2に応じた、 具体的なアクション (例えば、 行動、 動作、 姿勢) を指示する命令 (アクション命令) に変換し、 出力部 1 6に 供給するとともに、 内部状態計算部 1 1にフィードバックするよう になされている。
出力部 1 6は、 行動変換部 1 5からのァクション命令に従った出 力を行うようになされている。 すなわち、 出力部 1 6は、 行動変換 部 1 5からのァクション命令に従ったァクシヨンを、 電子ぺッ トに 行わせるようになされている。
本体部 2が、 例えば仮想電子ペッ ト装置 2 2である場合には、 出 力部 1 6は、 モニタや、 音声合成装置 (例えば、 規則音声合成装 置) 及びスピーカなどからなりなり、 よって、 出力部 1 6の出力は、 例えば電子べッ 卜の表示を変化させたり、 鳴き声などを出力させた りすることになる。
また、 本体部 2が、 例えばべッ ト型ロボッ ト 23である場合には、 出力部 1 6は、 足、 胴、 頭、 尻尾などに相 する部材を駆動するモ 一夕や、 音声合成装置及びスピーカなどの動作部からなり、 よって、 出力部 1 6の出力は、 例えば所定のモー夕を回転させたり、 鳴き声 などを出力させたりすることになる。
さらに、 仮想電子ぺッ ト装置 22及びべッ ト型ロボッ ト 23の構 成について、 より具体的な例を挙げて説明する。 図 4には、 仮想電 子ぺッ 卜装置 22のハ一ドウエア構成例を示す。
CPU (Central Processing Unit) 3 1は、 ROM (Read Only Memory) 32に記憶されたプログラムに従って各種の処理を行うよ うになされている。 夕イマ回路 3 1 Aは、 図示しないクロックを力 ゥン トし、 そのカウント値に基づき、 C P U 3 1に対して所定の単 位時間 (例えば、 1 00ms) 毎に夕イマ割り込みを発生するよう になされている。
ROM32は、 C P U 3 1が実行すべきプログラムや、 そのプロ グラムを実行するにあたって必要なデ一夕を記憶している。 RAM (Random Access Memory) 33は、 C P U 3 1の動作上必要なデ一 夕を記憶するようになされている。
IZF 34は、 CPU 3 1と、 A/D変換器 36、 操作部 37、 I Cカード用コネクタ 38、 DZA変換器 39、 液晶コン トローラ 4 1それぞれとの間のイン夕一フェイスとして機能するようになさ れている。 なお、 以上のうちの C P U 3 1、 R OM 3 2、 RAM 3 3、 I / F 34は、 相互にバス (ア ドレスバスやデータバスなど) を介して 接続されている。
マイク (マイクロフォン) 3 5は、 そこに入力される音声 (例え ば、 笛の音その他の音を含む) をアナログの電気信号としての音声 信号に変換し、 A/D変換器 3 6に供給するようになされている。 A/D変換器 3 6は、 マイク 3 5からのアナログの音声信号を A/ D変換し、 ディジタルの音声信号として I / F 34を介して C P U 3 1に出力するようになされている。
C P U 3 1は、 このようにして音声信号を受信した場合、 例えば、 その音声信号を線形予測分析することにより、 その特徴量を抽出し、 さらに、 例えば、 HMM (Hidden Markov Model) 法に基づいて音声 認識を行うようになされている。 ここで、 CPU 3 1が音声認識を 行うために実行するプログラム、 及び音声認識の対象とする単語の モデルは、 例えば R OM 3 2に記憶されている。 また、 ここでは、 音声認識の対象とする単語のモデルとして、 特に、 飼い主がペッ ト に対して話しかけるのに用いる単語のモデルが記憶されている。 言己 憶される単語としては、 「こら」 、 「よい子だね」 、 「おはよう」 、 「おやすみ」 、 「お手」 、 「お座り」 、 「なにやっているの」 など が挙げられる。
なお、 音響分析の手法は線形予測分析に限定されるものではなく、 また、 音声認識の手法は H MM法に限定されるものではない。
操作部 3 7は、 各種のボタンやキーから構成され、 ュ一ザからの 操作に対応した信号を I/F 34から C PU 3 1に供給する。 これ により、 C P U 3 1では、 ユーザが操作したボタンやキーなどを認 識することができるようになる。 なお、 操作部 3 7は、 例えば電子 ペッ トを叱るときに操作される 「叱る」 ボタンや、 誉めるときに操 作される 「誉める」 ボタン、 「おはよう」 や 「おやすみ」 などの声 をかけることに相当する 「挨拶」 ボタン、 芸としての例えばお手や お座りを命令するときに操作される 「お手」 ボタンや 「お座り」 ボ タンなどの、 電子ぺッ 卜に対して各種の入力を与えるためのボタン を有している。
I Cカード用コネクタ 3 8は、 仮想電子ぺッ ト装置 2 2のスロッ ト 2 2 A (図 2 ) の中に設けられており、 I Cカード 2 1がスロッ ト 2 2 Aに装着されたときに、 I Cカード 2 1 と C PU 3 1 とを I /F 34を介して電気的に接続するようになされている。 ここで、 C P U 3 1は、 I/F 34及び I Cカード用コネクタ 38を介して、 I Cカード 2 1に対してデ一夕を読み書きするようになされている。 また、 CPU 3 1は、 I Cカード 2 1の装着の有無を検出すること ができるようになされている。
D/ A変換器 3 9は、 C PU 3 1から I/F 34を介して供給さ れるディジタルの音声信号を D/A変換し、 アナログの音声信号と して、 スピーカ 4 0に供給するようになされている。 スピーカ 40 は、 アンプを内蔵し、 D/A変換器 3 9からの音声を増幅して出力 するようになされている。 ここで、 C P U 3 1は、 必要な場合には 電子ぺッ トの鳴き声その他の必要な音声を例えば音声合成により生 成し、 I/F 34を介して、 D/A変換器 3 9に出力するようにな されている。 なお、 音声合成を行うためのプログラム、 及び音声合 成に必要なデータは、 例えば ROM 3 2に記憶されている。
液晶コン トローラ 4 1は、 I/F 34を介して C PU 3 1により 制御され、 液晶表示部 4 2に対して、 各種の画像 (例えば、 電子べ ッ トの画像など) や文字などを表示させる。 液晶表示部 42は、 液 晶コン トロ一ラ 4 1の制御に従って画像や文字などを表示するよう になされている。 なお、 R OM 3 2は、 液晶コン トローラ 4 1を制 御することにより液晶表示部 42に画像や文字を表示させるための プログラムを記憶しており、 C PU 3 1は、 このプログラムを実行 することで、 液晶表示部 4 2に画像や文字などを表示させるように なされている。
以上、 仮想電子ぺッ ト装置 22のハードウヱァの構成例である。 次に、 ペッ ト型ロボッ ト 2 3のハードウェア構成例を説明する。 ぺ ッ ト型ロボッ ト 2 3のハ一ドウエア構成例は図 5に示すようになる c なお、 図 5中、 図 4の仮想電子ペッ ト装置 2 2における場合と対 応する部分については、 同一の符号を付してある。 すなわち、 ぺッ ト型ロボッ ト 2 3は、 液晶コントローラ 4 1及び液晶表示部 4 2に 替えて、 モ一夕 5 1及び駆動機構 5 2が設けられている他は、 仮想 電子ぺッ ト装置 2 2と基本的に同様に構成されている。
モー夕 5 1は、 I /F 34を介して、 C P U 3 1に制御され、 駆 動機構 52を駆動するようになされている。 駆動機構 5 2は、 例え ば、 ペッ ト型ロボッ ト 2 3の可動部分としての頭、 足、 胴体、 又は 尻尾などを構成し、 モ一夕 5 1によって駆動されるようになされて いる。
なお、 図 4及び図 5の I/F 34及び I Cカード用コネクタ 3 8 は、 図 3の I / F 1 0に対応し、 図 4及び図 5の C P U 3 1及び R OM 3 2は、 図 3の内部状態計算部 1 1及び行動変換部 1 5に対応 する。 また、 図 4及び図 5のマイク 3 5及び A/D変換器 3 6や操 作部 3 7は、 図 3の外的入力部 1 2に対応する。 また、 図 4及び図 5の夕イマ回路 3 1 Aは、 図 3の時間入力部 1 3に対応し、 図 4及 び図 5の R OM 3 2は、 図 3のモデル記憶部 1 4に対応する。 さら に、 図 4及び図 5の D/A変換器 3 9及びスピーカ 40や、 図 4の 液晶コン トローラ 4 1及び液晶表示部 4 2、 または図 5のモ一夕 5 1及び駆動機構 5 2は、 図 3の出力部 1 6に対応する。
さらに、 ペッ ト型ロボッ ト 2 3について、 詳しく説明する。 ぺッ ト型ロボッ ト 2 3の全体 (外観形状) は、 図 6に示すように、 頭に 相当する頭部 6 1と、 胴体に相当する胴体部 6 2と、 4本の足に相 当する足部 6 3 A, 6 3 B , 6 3 C, 6 3 Dと、 尻尾に相当する尻 尾部 64とが連結されて構成されている。 このような構成からなる ペッ ト型ロボヅ ト 2 3は、 胴体部 6 2に対して頭部 6 1、 足部 6 3 A〜6 3 D、 尻尾部 64を動かすことによって本物の四足動物のよ うに動作する。 そして、 ペッ ト型ロボッ ト 2 3は、 図示しないが、 I Cカード 2 1を装着するためのスロヅ トを有している。
頭部 6 1には、 図 7に示すように、 目に相当し、 画像を撮像する 例えば C CD (Charge Coupled Device) カメラでなる画像認識部 7 1と、 耳に相当し、 音声を集音するマイク 7 2と、 口に相当し、 音 声を発するスピーカ Ί 3とがそれぞれ所定位置に取り付けられてい る。 また、 頭部 6 1には、 ユーザからリモートコン トローラ (図示 せず) を介して送信される指令を受信するリモートコン トローラ受 信部 74と、 ュ一ザの手などが接触されたことを検出するための夕 ツチセンサ 7 5と、 発光手段でなる L E D (Light Emitting Diod e) 7 6とが取り付けられている。
胴体部 6 2には、 腹に相当する位置にバッテリ 7 7が取り付けら れると共に、 その内部にぺッ ト型ロボッ ト 2 3全体の動作を制御す るための電子回路 (図示せず) 等が収納されている。
足部 6 3 A〜 6 3 Dの関節部分、 足部 6 3 A〜 6 3 Dと胴体部 6 2の連結部分、 胴体部 6 2と頭部 6 1の連結部分、 胴体部 6 2 と尻 尾部 6 4の連結部分などは、 それぞれのァクチユエ一夕 7 8 A ~ 7 8 Nによって連結されており、 胴体部 6 2内部に収納される電子回 路の制御に基づいて駆動するようになされている。 このようにぺッ ト型ロボッ ト 2 3は、 各ァクチユエ一夕 7 8 A〜 7 8 Nを駆動させ ることにより、 頭部 6 1を上下左右に振らせたり、 尻尾部 6 4を振 らせたり、 足部 6 3 A〜 6 3 Dを動かして歩かせたり走らせたり し て、 本物の四足動物のような動作を行わせる。
このようなペッ ト型ロボッ ト 2 3は、 周囲の情報や内部の情報 (例えば、 バッテリ残量情報) 等の入力情報に基づいて、 感情や本 能といった内部状態を変化させる。 ここで、 内部状態は I Cカード 2 1に記憶されている。
そして、 ペッ ト型ロボッ ト 2 3は、 変化される内部状態に基づい て、 頭部 6 1、 胴体部 6 2、 足部 6 3 A〜 6 3 D、 尻尾部 6 4 (ァ クチユエ一夕 7 8 A〜 7 8 Nにより動作される部分) 等の動作部を 制御し、 実世界における電子ペッ トを実現する。 以下、 このような ペッ ト型ロボッ ト 2 3の回路構成について、 図 7を用いて詳述する 頭部 6 1は、 マイク 7 2及びリモートコン トローラ受信部 7 4で なるコマン ド受信部 8 0と、 画像認識部 7 1及び夕ツチセンサ 7 5 からなる外部センサ 8 1 と、 スピーカ 7 3と、 L E D 7 6とを有し ている。 また、 胴体部 6 2は、 ノ ッテリ 7 7を有すると共に、 その 内部にぺッ ト型ロボッ ト 2 3全体の動作を制御するためのコン トロ ーラ 8 2と、 バッテリ 7 7の残量を検出するためのバヅテリセンサ 8 3及びぺッ 卜型ロボッ ト 2 3内部で発生する熱を検出する熱セン サ 8 4でなる内部センサ 8 5 とを有している。 さらに、 ぺヅ ト型ロ ボッ ト 2 3の所定位置にはァクチユエ一夕 7 8 A〜 7 8 Nがそれそ れ設けられている。
コマン ド受信部 8 0は、 ユーザからペッ ト型ロボッ ト 2 3に ' ぇ られる指令、 例えば 「歩け」 、 「伏せ」 、 「ボールを追いかけろ」 等の指令を受信するためのものであり、 マイク 7 2及びリモートコ ン トローラ受信部 7 4によって構成されている。
リモートコン トローラ受信部 7 4は、 リモートコン トローラ (図 示せず) がユーザによって操作されて入力された所望の指令を受信 する。 例えば、 リモートコン トローラからの指令の送信は、 赤外線 光により行われる。 リモー トコン トローラ受信部 7 4は、 この赤外 線光を受信して受信信号 S 1 Aを生成し、 これをコン トローラ 8 2 に送出する。
なお、 リモートコン トローラについては、 赤外線光により行う場 合に限定されるものはなく、 音階によってペッ ト型ロボッ ト 2 3に 命令を与えるようなものとすることもできる。 この場合には、 ぺッ ト型ロボッ ト 2 3は、 例えば、 マイク 7 2から入力されたリモート コン トローラからの音階に応じた処理を行うようにする。
マイク 7 2は、 ユーザが所望の指令に応じた音声を発すると、 1 Ί 該ユーザの発した音声を集音して音声信号 S 1 Bを生成し、 これを コン トローラ 8 2に送出する。
コマン ド受信部 8 0は、 このようにユーザからぺッ ト型ロボッ ト 2 3に与えられる指令に応じて受信信号 S 1 A及び音声信号 S 1 B でなる指令信号 S 1 を生成し、 これをコン トローラ 8 2に供給する。 外部センサ 8 1の夕ツチセンサ 7 5は、 ユーザからぺッ ト型ロボ ッ ト 2 3への働きかけ、 例えば 「なでる」 、 「叩く」 等の働きかけ を検出するためのものである。 例えば、 ザにより夕ツチセンサ 7 5が触れられて所望の働きかけがなされると、 その働きかけに応 じた接触検出信号 S 2 Aを生成し、 これをコン トローラ 8 2に送出 する。
外部センサ 8 1の画像認識部 7 1は、 ペッ ト型ロボッ ト 2 3の周 囲の環境を識別した結果、 例えば 「暗い」 、 「お気に入りのおもち やがある」 等の周囲の環境情報又は例えば 「他のロボッ 卜が走って いる」 等の他のロボッ ト装置の動きを検出するためのものである。 この画像認識部 7 1は、 周囲の画像を撮影した結果得られる画像信 号 S 2 Bを、 コン トローラ 8 2に送出する。
外部センサ 8 1は、 このようにペッ ト型ロボッ ト 2 3の外部から 与えられる外部情報に応じて接触検出信号 S 2 A及び画像信号 S 2 Bでなる外部情報信号 S 2を生成し、 これをコン トローラ 8 2に送 出する。
内部センサ 8 5は、 ペッ ト型ロボッ ト 2 3自身の内部情報、 例え ばバッテリ容量が低下したを意味する 「お腹がすいた」 、 「熱があ る」 等の内部情報を検出するためのものであり、 バッテリセンサ 8 3及び熱センサ 8 4から構成されている。
'ッテリセンサ 8 3は、 ペッ ト型ロボッ ト 2 3の各回路に電源を 供給するバッテリ 7 7の残量を検出するためのものである。 このバ ッテリセンサ 8 3は、 その検出した結果であるバッテリ容量検出信 号 S 3 Aをコン トローラ 8 2に送出する。 熱センサ 8 4は、 ペッ ト型ロボッ ト 2 3内部の熱を検出するため のものである。 この熱センサ 8 4は、 その検出した結果である熱検 出信号 S 3 Bをコン トローラ 8 2に送出する。
内部センサ 8 5は、 このようにぺッ ト型ロボッ ト 2 3の内部の情 報に応じてバッテリ容量検出信号 S 3 A及び熱検出信号 S 3 Bでな る内部情報信号 S 3を生成し、 これをコン トローラ 8 2に送出する。 なお、 図 7に示す画像認識部 7 1、 マイク 7 2、 リモートコン ト ローラ受信部 7 4、 及び夕ツチセンサ 7 5等は、 図 3に示した外部 入力部 1 2に対応する。 また、 図 7に示すァクチユエ一夕 7 8 A〜 7 8 Nは、 図 3に示した出力部 1 6に対応する。 また、 この図 7に 構成部分として示されておらず図 3或いは図 5に示されているよう な構成部分については、 図 7に示すペッ ト型ロボッ ト 2 3の構成部 分として備えてもよいことはいうまでもない。 例えば、 時間入力部 1 3 といった構成部分を備えてもよいことはいうまでもない。
コン トローラ 8 2では、 コマン ド受信部 8 0から供給される指令 信号 S l、 外部センサ 8 1から供給される外部情報信号 S 2、 及び 内部センサ 8 5から供給される内部情報信号 S 3からなる情報、 す なわち、 入力情報に基づいて、 各ァクチユエ一夕 7 8 A〜 7 8 Nを 駆動させるための制御信号 S 5 A - S 5 Nを生成し、 これらをァク チユエ一夕 7 8 A〜 7 8 Nにそれぞれ送出して駆動させることによ りぺッ ト型ロボッ ト 2 3を動作させる。
コン トローラ 8 2では、 外部に出力するための音声信号 S 1 0や 発光信号 S 1 1を必要に応じて生成し、 このうち音声信号 S 1 0を スピーカ 7 3を介して外部に出力したり、 発光信号 S 1 1を L E D 7 6に送出して所 の発光出力 (例えば、 点滅にする、 色を変化さ せる) をすることにより、 ユーザに必要な情報を知らせるようにな されている。 例えば、 発光出力により、 ユーザに自己の感情を知ら せるようにする。 なお、 L E D 7 6に替えて画像を表示する画像表 示部を備えることもできる。 これにより、 所望の画像表示により、 ユーザに必要な情報、 例えば感情等を知らせることができる。 コン 卜ローラ 8 2の処理については、 具体的には次のようになる。
コン トローラ 8 2は、 コマン ド受信部 8 0から供給される指令信 号 S 1 と、 外部センサ 8 1から供給される外部情報信号 S 2 と、 内 部センサ 8 5から供給される内部情報信号 S 3とを、 所定の記憶領 域に予め格納されているプログラムに基づいてソフ トウエア的にデ —夕処理を施し、 その結果得られる制御信号 S 5をァクチユエ一夕 7 8 A〜 7 8 Nに供給する。 ァクチユエ一夕 7 8 A〜7 8 Nでは、 この制御信号 S 5 A, S 5 B , ■ · · , S 5 Nに基づいて動作する ことになる。
図 8に示すように、 コン トローラ 8 2は、 そのデ一夕処理の内容 を機能的に分類すると、 感情本能モデル変化手段としての感情 · 本 能モデル部 9 0と動作決定手段としての行動決定機構部 9 1 と姿勢 遷移手段としての姿勢遷移機構部 9 2と制御機構部 9 3 とに分けら れ、 外部から供給される指令信号 S 1 と外部情報信号 S 2 と内部情 報信号 S 3 とを感情 · 本能モデル部 9 0及び行動決定機構部 9 1に 入力する。 概略としては以下のように機能する。
感情 · 本能モデル部 9 0において指令信号 S 1、 外部情報信号 S 2及び内部情報信号 S 3に基づいて感情や本能の状態を決定する。 そして、 行動決定機構部 9 1において指令信号 S 1、 外部情報信号 S 2及び内部情報信号 S 3に加え感情 · 本能モデル部 9 0により得 た感情 · 本能状態情報 S 1 0に基づいて次の動作 (行動) を決定し、 後段の姿勢遷移機構部 9 2において行動決定機構部 9 1によ り決定 された次の動作 (行動) に遷移するための姿勢の遷移計画を立てる なお、 行動決定機構部 9 1が決定した動作 (行動) の情報は、 感惜 • 本能モデル部 9 0にフィードバックされて、 感情 · 本能モデル部 9 0では、 決定された動作 (行動) を参照して感情や本能の状態を 決定するようにもなされている。 すなわち、 感情 ' 本能モデル部 9 0では、 動作 (行動) 結果をも参照して本能及び感情を決定してい る。
制御機構部 9 3では、 姿勢遷移機構部 9 2から姿勢遷移計画に基 づいて送られてく る姿勢遷移情報 S 1 8に基づいて各動作部を制御 し、 実際に姿勢を遷移させてから、 行動決定機構部 9 1にて決定さ れた次の動作 (行動) を実際に実行する。
すなわち、 ペッ ト型ロボッ ト 2 3は、 上述したようなコン トロー ラ 8 2における機構により、 感情 ' 本能に基づいて次の動作 (行 動) を決定して、 そのような動作 (行動) を実行できる姿勢までの 遷移計画を立てて、 その遷移計画に基づいて姿勢を遷移させてから、 そのような感情 · 本能に基づいて決定した動作 (行動) を実際に実 行する。
なお、 図 3に示した感情と本能のモデル記憶部 1 4及び内部状態 計算部 1 1の機能は、 図 8に示す感情 · 本能モデル部 9 0により実 現され、 図 3に示した行動変換部 1 5の機能は、 図 8に示す行動決 定機構部 9 1、 姿勢遷移機構部 9 2、 及び制御機構部 9 3により夾 現される。 次に、 上述のようなコン トローラ 8 2の各構成部につい て説明する。 感情 · 本能モデル部 9 0は、 図 9に示すように、 大別して、 感佶 モデルを構成する情動群 1 0 0と、 感情モデルとは属性の異なるモ デルとして用意された本能モデルを構成する欲求群 1 0 1 とを備え ている。
ここで、 感情モデルは、 ある値を有する感情パラメ一夕によって 構成され、 ロボッ 卜装置に規定された感情を感情パラメ一夕の値に 応じた動作を介して表出させるためのモデルである。
感情パラメ一夕は、 主に、 圧力センサや視覚センサ等のセンサに よって検出された 「叩かれた」 、 「怒られた」 といった外部入力信 号 (周囲の情報或いは外的要因) に基づいて、 値が上下する。 むろ ん、 感情パラメ一夕はバッテリー残量、 体内温度等の内部入力信号 (内部の情報或いは内的要因) に基づいても変化する場合もある。 また、 感情パラメ一夕は、 単なる時間の経過に基づいて変化もする また、 本能モデルは、 ある値を有する本能パラメ一夕によって構 成され、 ロボッ ト装置に規定された本能 (欲求) を本能パラメ一夕 の値に応じた動作を介して表出させるためのモデルである。 本能パ ラメ一夕は、 主に、 行動履歴に基づいた 「運動がしたい」 或いは、 バッテリー残量に基づく 「充電がしたい (お腹がすいた) 」 といつ た内部入力信号に基づいて、 値が上下する。 むろん、 本能パラメ一 夕も、 感情パラメ一夕同様、 外部入力 号に基づいて変化してもよ い。 また、 本能パラメ一夕は、 単なる時間の経過に基づいて変化も する。
これら感情モデル及び本能モデルは、 それぞれ同一属性とされる 複数種類のモデルによって構成されている。 すなわち、 情動群 1 0 0が同一属性からなる独立した感情モデルとしての情動ュニッ ト 1 0 0 A〜 1 0 0 Fを有し、 欲求群 1 0 1が同一属性からなる独立し た欲求モデルとしての欲求ュニッ ト 1 0 1 A〜 1 0 1 Dを有してい る。
情動群 1 0 0 としては、 「うれしさ」 の感情を示す情動ユニッ ト 1 0 0 A、 「悲しさ」 の感情を示す情動ユニッ ト 1 0 0 B、 「怒 り」 の感情を示す情動ュニッ ト 1 0 0 C、 「驚き」 の感情を示す情 動ユニッ ト 1 0 0 D、 「恐れ」 の感情を示す情動ュニッ ト 1 0 0 E 及び 「嫌悪」 の感情を示す情動ュニッ ト 1 0 O F等が挙げられる。 欲求群 1 0 1 としては、 「運動欲 (Movement Inst inct ) 」 の欲求 を示す欲求ュニッ ト 1 0 1 A、 「愛情欲 (Love Instinct) 」 の欲求 を示す欲求ュニッ 卜 1 0 1 B、 「食欲 ( Recharge Instinct ) 」 の欲 求を示す欲求ュニッ ト 1 0 1 C及び 「好奇心 (Search Instinct) 」 の欲求を示す欲求ュニッ ト 1 0 1 D等が挙げられる。
情動ュニッ ト 1 0 0 A〜 1 0 0 Fは、 情動の度合いを例えば 0〜 1 0 0 レベルまでの強度 (感情パラメ一夕) によってそれぞれ表し、 供給される指令信号 S 1、 外部倩報信号 S 2及び内部情報信号 S 3 に基づいて情動の強度をそれぞれ時々刻々と変化させる。 かく して 感情 · 本能モデル部 9 0は、 時々刻々と変化する情動ュニッ ト 1 0 0 A〜 1 0 0 Dの強度を組み合わせることによりぺッ ト型ロボッ ト 2 3の感情の状態を表現し、 感情の時問変化をモデル化している。 さらに、 所望の情動ュニッ ト同士が相互に影響し合って強度が変 化するようにもなされている。 例えば、 情動ユニッ ト同士を相互抑 制的又は相互刺激的に結合し、 相互に影響し合って強度が変化する ようにしている。
具体的には、 図 1 0に示すように、 「うれしさ」 の倩動ュニッ 卜 1 0 0 Aと 「悲しさ」 の情動ュニッ ト 1 0 0 Bとを相互抑制的に結 台することにより、 ユーザにほめてもらったときには、 「うれし さ」 の情動ュニッ ト 1 0 ◦ Aの強度を大きくすると共に、 その際
「悲しさ」 の情動ュニッ ト 1 0 0 Bの強度を変化させるような入力 情報 S 1〜 S 3が供給されていなくても、 「うれしさ」 の情動ュニ ヅ 卜 1 0 0 Aの強度が大きくなることに応じて 「悲しさ」 の†t 動ュ ニヅ ト 1 0 0 Bの強度を低下させる。 同様に 「悲しさ」 の情動ュニ ヅ ト 1 0 0 Bの強度が大きくなると、 ¾該 「悲しさ」 の情動ュニッ ト 1 0 0 Bの強度が大きくなることに応じて 「うれしさ」 の情動ュ ニッ ト 1 0 0 Aの強度を低下させる。
また、 「悲しさ」 の倩動ュニッ ト 1 0 0 Bと 「怒り」 の情動ュニ ッ ト 1 0 0 Cとを相互刺激的に結合することにより、 ユーザに叩か れたときには、 「怒り」 の情動ュニッ ト 1 0 0 Cの強度を大きくす ると共に、 その際 「悲しさ」 の情動ュニッ 卜 1 0 0 Bの強度を変化 させるような入力情報 S 1 〜 S 3が供給されていなくても、 「怒 り」 の情動ュニッ ト 1 0 0 Cの強度が大きくなることに応じて 「悲 しさ」 の情動ュニッ ト 1 0 0 Bの強度を増大させる。 同様に、 「悲 しさ」 の情動ュニッ 卜 1 0 0 Bの強度が大きくなると、 当該 「悲し さ」 の情動ュニッ 卜 1 0 0 Bの強度が大きくなることに応じて 「怒 り」 の情動ュニッ ト 1 ◦ 0 Cの強度を if;犬させる。
このように所望の情動ュニッ ト同士が相互に影響し合って強度が 変化するようにすることにより、 当該結合した情動ュニッ トのうち 一方の情動ュニッ 卜の強度を変化させると、 これに応じて他方の情 動ュニッ 卜の強度が変化することになり、 自然な感情を有するぺッ ト型ロボッ ト 2 3が実現される。 一方、 欲求ュニッ ト 1 0 1 A〜: 1 0 1 Dは、 情動ュニッ ト 1 ◦ 0 A〜 1 0 0 Fと同様に、 欲求の度合いを例えば 0〜 1 0 0 レベルま での強度 (本能パラメ一夕) によってそれぞれ衷し、 供給される指 令信号 S 1 と外部情報信号 S 2 と内部情報信号 S 3とに基づいて欲 求の強度をそれぞれ時々刻々と変化させる。 かく して感情 · 本能モ デル部 9 0は、 時々刻々と変化する欲求ュニッ ト 1 0 1 A〜 1 ◦ 1 Dの強度を組み合わせることによりペッ ト型ロボッ ト 2 3の本能の 状態を表現し、 本能の時間変化をモデル化している。
さらに、 情動ユニッ ト同士を結合した場合と同様に、 所望の欲求 ュニッ ト同士が相互に影響し合って強度が変化するようにもなされ ている。 例えば、 欲求ュニッ ト同士を相互抑制的又は相互刺激的に 結合し、 相互に影響し合って強度が変化するようにしている。 これ により、 結合した欲求ュニッ 卜のうち一方の欲求ュニッ 卜の強度を 変化させると、 これに応じて他方の欲求ュニッ トの強度が変化する ことになり、 自然な本能を有するペッ ト型ロボッ ト 2 3が実現され る。
さらに、 情動群 1 0 0 と欲求群 1 0 1 との間で各ユニッ トが互い に影響し合い、 その強度を変化させるようにもなされている。 例え ば、 欲求群 1 0 1の 「愛情欲」 の欲求ュニッ ト 1 0 1 Bや 「食欲」 の欲求ュニッ ト 1 0 1 Cの強度の変化が、 情動群 1 0 0の 「悲し さ」 の情動ュニッ 卜 1 0 0 Bや 「怒り」 の情動ュニッ ト 1 0 0 Cの 強度の変化に影響したり、 「食欲」 の欲求ュニッ ト 1 0 1 Cの強度 の変化が 「悲しさ」 の情動ュニッ 卜 1 0 0 Bや 「怒り」 の情動ュニ ッ ト 1 0 0 Cの強度の変化に影響するようにである。 これにより、 「愛情欲」 が満たされると 「怒り」 の感情や 「悲しさ」 の感情がお さえられ、 また、 「食欲」 が満たされないと 「怒り」 の感情や 「悲 しさ」 の感情が高まるといったような状態を表現することができる ようになる。 このように、 感情と欲求との相互作用により、 感情と 本能とが複雑に影響し合った状態を表現することができる。
以上述べたように、 感情 · 本能モデル部 9 0は、 指令信号 S 1 と 外部情報信号 S 2 と内部情報信号 S 3 とでなる人力情報 S 1 〜 S 3、 或いは情動群 1 0 0内及び欲求群 1 0 1内における情動ュニッ ト同 士の相互作用や情動群 1 0 0と欲求群 1 0 1 との間のュニッ ト同士 の相互作用等により情動ュニッ ト 1 0 0 A〜 1 0 0 F及び欲求ュニ ッ 卜 1 0 1 A〜 1 0 1 Dの強度をそれぞれ変化させる。
そして、 感情 · 本能モデル部 9 0は、 この変化した情動ユニッ ト 1 0 0 A〜 1 0 0 Fの強度を組み合わせることにより感情の状態を 決定すると共に、 変化した欲求ュニッ ト 1 0 1 A〜: L 0 1 Dの強度 を組み合わせることにより本能の状態を決定し、 当該決定された感 情及び本能の状態を感情 ·本能状態情報 S 1 0として行動決定機構 部 9 1に送出する。
また、 感情 · 本能モデル部 9 0には、 後段の行動決定機構部 9 1 からペッ ト型ロボッ ト 2 3自身の現在乂は過去の行動の内容を示す 行動情報 S 1 2が供給されている。 例えば、 後述する行動決定機構 部 9 1において歩行の行動が決定された場合には、 「長時間歩い た」 とされた情報として行動情報 S 1 2が供給されるといったよう にである。
このように行動情報 S 1 2をフィードバックさせることで、 同一 の入力情報 S 1 〜 S 3が与えられても、 当該行動情報 S 1 2が示す ぺッ ト型ロボッ ト 2 3の行動に応じて異なる感情 · 本能状態情報 S 1 0を生成することができるようになる。 具体的には、 次のような 構成により、 フィードバックされる行動情報 S 1 2が感情や行動の 状態の決定に参照される。
m 1 1に示すように、 感情 · 本能モデル部 9 0は、 各情動ュニッ ト 1 00 A〜 1 0 0 Cの前段に、 ぺッ ト型ロボッ ト 2 3の行動を示 す行動情報 S 1 2と入力情報 S 1〜S 3とに基づいて各情動ュニッ ト 1 00 A〜 1 0 0 Cの強度を増減させるための強度情報 S 1 4 A 〜S 1 4 Cを生成する強度増減手段 1 0 2 A〜 1 0 2 Cをそれぞれ 設け、 当該強度増減手段 1 02 A〜 1 0 2 Cから出力される強度情 報3 1 4 〜3 1 40に応じて各情動ュニッ ト 1 0 0 A〜 1 0 0 C の強度をそれぞれ増減させる。
例えば、 感情 · 本能モデル部 9 0は、 ユーザに挨拶をしたときに 頭をなでられれば、 すなわちユーザに挨拶をしたという行動情報 S 1 2と頭をなでられたという入力情報 S 1〜S 3とが強度増減手段 1 0 2 Aに与えられると、 「うれしさ」 の情動ュニッ ト 1 0 0 Aの 強度を増加させる。 一方、 感情 '本能モデル部 9 0は、 何らかの仕 事を実行中に頭をなでられても、 すなわち仕事を実行中であるとい う行動情報 S 1 2と頭をなでられたという入力情報 S 1〜S 3とが 強度増減手段 1 0 2 Aに与えられても、 「うれしさ」 の情動ュニッ ト 1 0 0 Aの強度を変化させない。 例えば、 強度増減手段 1 0 2 A は、 行動倩報 S 1 2と入力情報 S 1〜S 3とに基づいて強度情報 S 1 4 A〜S 1 4 Cを生成するような関数やテーブルとして構成され ている。 例えば、 他の強度増減手段 1 0 2 B , 1 0 2 Cについても 同様である。
このように、 感情 · 本能モデル部 9 0は、 強度増減手段 1 0 2 A ~ 1 0 2 Cを備えて、 入力情報 S 1〜 S 3だけでなく現在又は過去 のぺッ ト型ロボッ ト 2 3の行動を示す行動情報 S 1 2も参照しなが ら各情動ュニッ ト 1 0 0 A〜 1 0 ◦ Cの強度を決定することにより、 例えば何らかのタスクを実行中にユーザがいたずらするつも りで頭 をなでたとき、 「うれしさ」 の情動ュニッ ト 1 0 0 Aの強度を増加 させるような不自然な感情を起こさせることを回避することができ る。 因みに、 感情 · 本能モデル部 9 0は、 欲求ュニッ ト 1 0 1 A〜 1 0 1 Cの場合も同様にして、 供給される入力情報 S 1 〜 S 3及び 行動情報 S 1 2に基づいて各欲求ュニッ 卜 1 0 1 A〜 1 0 1 Cの強 度をそれぞれ増減させるようになされている。
なお、 本実施の形態では、 「うれしさ」 、 「悲しさ」 及び 「怒 り」 の情動ュニッ ト 1 0 0 A〜 : L 0 0 Cに強度増減手段 1 0 2 A〜 1 0 2 Cを備えた例について説明した。 しかし、 これに限定される ものではなく、 他の 「驚き」 、 「恐れ」 及び 「嫌悪」 の情動ュニッ ト 1 0 0 D〜 1 0 0 Fに強度増減手段を備えることもできることは いうまでもない。
以上述べたように、 強度増減手段 1 0 2 A〜 1 0 2 Cは、 入力' 報 S 1 ~ S 3及び行動情報 S 1 2が入力されると、 予め設定されて いるパラメ一夕に応じて強度情報 S 1 4 A〜 S 1 4 Cを生成して出 力するので、 当該パラメ一夕をぺヅ ト型ロボッ ト 2 3毎に異なる値 に設定することにより、 例えば怒りっぽいロボッ トや明るい性格の ロボヅ 卜のように、 当該ロボヅ 卜に個性を持たせることができる。 次に、 行動決定機構部 9 1の処理について説明する。 行動決定機 構部 9 1は、 具体的には、 図 1 2に示す選択モジュール 9 4 と協動 して、 各種情報に基づいて次の動作 (行動) を決定する。 行動決定 機構部 9 1 には、 図 8に示すように、 指令信号 S 1 と外部情報信号 S 2 と内部情報信号 S 3と感情 · 本能状態情報 S 1 0 と行動情報 S 1 2 とでなる情報 S 1 4が入力され、 この情報 S 1 4に基づいて、 次の動作 (行動) が決定される。 .
行動決定機構部 9 1には、 例えば図 1 2に示すように、 「第 1の 行動モデル (行動モデル 1 ) 」 、 「第 2の行動モデル (行動モデル 2 ) 」 、 「第 3の行動モデル (行動モデル 3 ) 」 、 「第 4の行動モ デル (行動モデル 4 ) 」 、 · · · 「第 nの行動モデル (行動モデル n ( nは、 整数。 ) ) 」 といった複数の行動モデルを保持している。 例えば、 行動モデルは、 「バッテリ残量が少なくなつた場合」 、 「転倒復帰する」 、 「障害物を回避する場合」 、 「感情を表現する 場合」 、 「ボールを検出した場合」 などの各場面において行動を決 定するためのモデルである。 すなわち、 ある情報が入力された場合、 その入力情報に特定の行動モデル (複数の行動モデルであってもよ レ、。 ) が反応し、 そのように反応した行動モデルが次の行動を決定 する。
そして、 情報 S 1 4に基づいて第 1乃至第 nの行動モデルがそれ それ決定した決定結果が選択モジュール 9 4に出力される。
なお、 第 1乃至第 nの各行動モデルは、 次の行動を決定する手法 として、 図 1 3に示すような 1つのノード (状態) N 0 D E。〜N 0 D E„から他のどのノード N O D E。〜N O D E nに遷移するかを各ノ —ド N O D E。〜 N O D E nに間を接続するアーク AR C . AR C„ ,に対してそれぞれ設定された遷移確率 P nに基づいて確率的に 決定する有限確率ォートマ トンと呼ばれるァルゴリズムを用いる。 具体的に、 第 1乃至第 nの各行動モデルは、 それぞれ自己の行動 モデルを形成するノード NOD E。〜 NOD E„にそれぞれ対応させ て、 これらノード N〇 D E。〜 N 0 D E nごとに図 1 4に示すような 状態遷移表 9 5を有している。
この状態遷移表 9 5では、 そのノード N◦ D E。〜N 0 D E nにお いて遷移条件とする入カイベン ト (認識結果) が 「入カイベン ト 名」 の行に優先順に列記され、 その遷移条件についてのさらなる条 件が 「データ名」 及び 「データ範囲」 の行における対応する列に記 述されている。
このような図 1 4の状態遷移表 9 5で表されるノード NO D E ,。 。では、 「ボールを検出 (BAL L) 」 という認識結果 (情報 S 1 4 ) が与えられた場合に、 当該認識結果と共に或いは認識結果とし て与えられるそのボールの 「大きさ ( S I Z E) 」 が 「0から 1000」 の範囲であることや、 「障害物を検出 (OB S TAC L E) 」 とい う認識結果が与えられた場合に、 当該認識結果と共に与えられるそ の障害物までの 「距離 (D I S T AN C E ) 」 が 「0から 100」 の範 囲であることが他のノードに遷移するための条件となっている。 また、 このノード N 0 D E t。。では、 認識結果 (情報 S 1 4 ) とし て感情 · 本能モデル部 9 0から供給された感情 · 本能状態情報 S 1 0が示す情動ュニッ ト 1 00 A〜 1 0 0 F及び欲求ュニッ ト 1 0 1 A〜 1 0 1 Dの強度のうち、 所望のュニッ トの強度が所定の閾値を 超えているか否かも参照して遷移先のノ一ドの選択もされる。 これ により、 例えば同一の指令信号 S 1が入力されても、 情動ユニッ ト 1 0 0 A〜 1 0 0 F及び欲求ュニッ 卜 1 0 1 A〜 1 0 1 Dの強度に 応じて異なるノードに遷移するようになる。
また、 このノード N◦ D E では、 認識結果 (情報 S 1 4 ) の入 力がない場合においても、 第 1乃至第 nの行動モデルが感情 · 本能 モデル部 9 0に保持された各情動及び各欲求のパラメ一夕値のうち、 感情モデルにより保持された 「喜び ( J 0 Y) 」 、 「驚き ( S UR PR I S E) 」 若しくは 「悲しみ ( S U D N E S S ) 」 の何れかの パラメ一夕値が 「50から 100」 の範囲であるときには他のノードに遷 移することができるようになつている。
また、 状態遷移表 9 5では、 「他のノードへの遷移確率」 の欄に おける 「遷移先ノード」 の列にそのノード N 0 D E。〜 NOD E"か ら遷移できるノード名が列記されていると共に、 「入力イベン ト 名」 、 「データ値」 及び 「デ一夕の範囲」 の行に記述された全ての 条件が揃ったときに遷移できる他の各ノード NOD E。〜 NOD E„ への遷移確率が 「他のノードへの遷移確率」 の欄内の対応する箇所 にそれぞれ記述され、 そのノ一ド N 0 D E。〜N 0 D E nに遷移する 際に出力すべき行動が 「他のノードへの遷移確率」 の欄における 「出力行動」 の行に記述されている。 なお、 「他のノードへの遷移 確率」 の欄における各行の確率の和は 1 0 0 [%] となっている。 なお、 遷移確率は、 変更可能としてもよい。 例えば、 学習機能によ り、 遷移確率を変更する。 これにより、 ぺッ ト型ロボッ ト 2 3は、 学習結果に応じて遷移確率を変更するので、 行動の決定に対して個 性を持つようになる。 なお、 例えば、 このようなペッ ト型ロボッ ト 2 3の特徴をいう遷移確率が、 個体情報記憶部 1 ( I Cカード 2 1 ) にペッ ト特徴情報として記憶される。
図 1 4の状態遷移表 9 5で表されるノード N 0 D E!。。 では、 例 えば 「ボールを検出 (BAL L) 」 し、 そのボールの 「S I Z E (大きさ) 」 が 「0から 1000」 の範囲であるという認識結果 (情報 S 1 4 ) が与えられた場合には、 「30 [%] j の確率で 「ノード NO D E 12 ϋ (node 120) 」 に遷移でき、 そのとき 「A C T I 0N 1」 の 行動が出力されることとなる。
このような行動モデルにより、 例えば、 供給される外部情報信号 S 2を基に例えば目の前に手のひらが差し出されたことを検出し、 かつ感情 · 本能状態情報 S 1 0を基に 「怒り」 の情動ュニッ ト 1 0 0 Cの強度が所定の閾値以下であることを検出し、 かつ内部情報信 号 S 3を基に 「お腹がすいていない」 、 すなわち電池電圧が所定の 閾値以上であることを検出すると、 目の前に手のひらが差し出され たことに応じて 「おて」 の動作を行わせるための行動が決定される。 また、 例えば目の前に手のひらが差し出され、 かつ 「怒り」 の情 動ュニッ ト 1 0 0 Cの強度が所定の閾値以下であり、 かつ 「お腹が すいている」 すなわち電池電圧が所定の閾値未満であることを検出 すると、 「手のひらをぺろぺろなめる」 ような動作を行わせるため の行動が決定される。
また、 例えば目の前に手のひらが差し出され、 かつ 「怒り」 の情 動ュニッ ト 1 0 0 Cの強度が所定の閾値以上であることを検出する と、 「お腹がすいていない」 すなわち電池電圧が所定の閾値以上で あるか否かにかかわらず、 「ぶいと横を向く」 ような動作を行わせ るための行動が決定される。
第 1乃至第 nの各行動モデルは、 それぞれこのような状態遷移表 9 5として記述されたノード NOD E (,〜 NOD E r,がいくつもつな がるようにして構成されており、 認識結果 (情報 S 1 4 ) が与えら れたときなどに、 対応するノード N 0 D E。〜Ν 0 D E nの状態遷移 表を利用して確率的に次の行動を決定し、 決定結果を選択モジユー ル 9 4に出力するようになされている。
選択モジュール 9 4では、 第 1乃至第 nの行動モデルからそれぞ れ出力される行動のうち、 予め定められた優先順位の高い行動モデ ルから出力された行動を選択し、 選択した行動の情報を行動指令情 報 S 1 6として、 姿勢遷移機構部 9 2に出力する。 例えば、 図 1 2 において下側に表記された行動モデルほど優先順位が高く設定され ている。
また、 選択モジュール 9 4は、 その選択結果を、 行動情報 S 1 2 として感情 · 本能モデル部 9 0や行動決定機構部 9 1にも出力する。 例えば、 選択モジュール 9 4は、 決定した行動にフラグを立て、 そ の情報を行動情報 S 1 2や行動指令情報 S 1 6として行動決定機構 部 9 1や姿勢遷移機構部 9 2に出力している。
行動決定機構部 9 1では、 外部情報等 (指令信号 S 1、 外部情報 信号 S 2 ) S 2 1や内部情報等 (内部情報信号 S 3、 感情 · 本能状 態情報 S 1 0 ) S 2 2に加えて行動情報 S 1 2に基づいて行動を決 定することにより、 前の行動が考慮された次の行動を決定すること ができるようになる。
また、 感情 · 本能モデル部 9 0では、 上述したように、 同一の情 報 S 1〜 S 3 (指令信号 S 1 と外部情報信号 S 2 と内部情報信号 S 3とでなる情報) に加えて行動情報 S 1 2に基づいて、 感情及び本 能の状態を変化させる。 これにより、 感情 · 本能モデル部 9 0は、 上述したように、 同一の情報 S 1〜 S 3が与えられても異なる感情 • 本能状態情報 S 1 0を生成することができるようになる。
また、 情報 S 1〜 S 3は、 感情 · 本能モデル部 9 0及び行動決定 機構部 9 1に入力される夕イ ミングに応じて情報の内容が異なるた め、 感情 · 本能モデル部 9 0と共に行動決定機構部 9 1にも入力さ れるようになされている。
例えば、 コン トローラ 8 2は、 「頭をなでられた」 という外部情 報信号 S 2が供給されると、 感情 · 本能モデル部 9 0によって 「う れしい」 という感情 · 本能状態情報 S 1 0を生成し、 当該感情 ' 本 能状態情報 S 1 0を行動決定機構部 9 1に供給するが、 この状態に おいて、 「手が目の前にある」 という外部情報信号 S 2が供給され ると、 行動決定機構部 9 1において上述の 「うれしい」 という感情 •本能状態情報 S 1 0と 「手が目の前にある」 という外部情報信号 S 2とに基づいて 「喜んでおてをする」 という行動を決定する。 以上述べたような種々の手段により、 行動決定機構部 9 1及び選 択モジュール 9 4による行動指令情報 S 1 6の決定がなされ、 すな わち、 概念としての行動の決定がなされ、 決定された行動指令情報 S 1 6が姿勢遷移機構部 9 2に入力される。
姿勢遷移機構部 9 2は、 目標とされる姿勢や目標とされる動作に 遷移するための情報を生成する。
上述のように、 ペッ ト型ロボッ ト 2 3は、 行動決定機構部 9 1に より次にとる行動を決定しているが、 現在の行動から次の行動は必 ずしも同一の姿勢或いは動作において実現されるものではない。 す なわち、 現在の行動が 「寝姿勢」 において実現され、 次の姿勢が 「立ち姿勢」 で実現されるような場合である。 このような場合、 次 の行動を実行するには、 「寝姿勢」 から 「立ち姿勢」 に一旦遷移す る必要ある。 姿勢遷移機構部 9 2は、 このような姿勢或いは動作の 遷移を実行するためのものである。
具体的には、 姿勢遷移機構部 9 2は、 図 8に示すように、 行動決 定機構部 9 1から供給される行動指令情報 S 1 6に基づいて現在の 姿勢又は動作から次の姿勢又は動作 (目的とされる姿勢若しくは目 的とされる動作、 又は次の行動を実現するための姿勢若しくは動 作) に遷移させるための姿勢遷移情報 S 1 8を生成し、 これを制御 機構部 9 3に送出する。 例えば、 現在の姿勢から次に遷移可能な姿 勢は、 胴体や手や足の形状、 重さ、 各部の結合状態のようなペッ ト 型ロボッ ト 2 3の物理的形状と、 例えば関節が曲がる方向や角度の ようなァクチユエ一夕 7 8 A〜 7 8 Nの機構とによって決定され、 姿勢遷移情報 S 1 8は、 そのようなことが考慮された、 遷移させる ための情報とされる。
このように姿勢遷移機構部 9 2から送られてくる姿勢遷移情報 S 1 8に基づいて、 制御機構部 9 3がぺッ ト型ロボッ ト 2 3を実際に 動作させている。
姿勢遷移機構部 9 2は、 ペッ ト型ロボッ ト 2 3が遷移可能な姿勢 及び遷移する際の動作を予め登録しており、 例えばグラフとして保 持しており、 行動決定機構部 9 1から供給された行動指令情報 S 1 6を姿勢遷移情報 S 1 8として制御機構部 9 3に送出する。 制御機 構部 9 3は、 姿勢遷移情報 S 1 8に応じて動作して目標とされる姿 勢或いは目標とされる動作に遷移する。 姿勢遷移機構部 9 2が処理 の詳細は次のようになる。
例えば、 ぺッ ト型ロボッ ト 2 3は、 指令 (行動指令情報 S 1 6 ) の内容に従った姿勢に、 直接遷移できない場合がある。 例えば、 ぺ ッ ト型ロボッ ト 2 3の姿勢は、 現在の姿勢から直接遷移可能な姿勢 と、 直接には遷移できなく、 ある動作や姿勢を経由して可能となる 姿勢と、 に分類されるからである。 例えば、 4本足のペッ ト型ロボッ ト 2 3は、 手足を大きく投げ出 して寝転んでいる状態から伏せた状態へ直接遷移することはできる が、 立った姿勢へ直接遷移することはできず、 一旦手足を胴体近く に引き寄せて伏せた姿勢になり、 それから立ち上がるという 2段階 の動作が必要である。 また、 安全に実行できない姿勢も存在する。 例えば、 4本足のぺッ ト型ロボッ ト 2 3は、 立っている姿勢で両前 足を挙げてバンザィをしょうとすると、 転倒してしまう場合である。 或いは、 現在の姿勢が寝転び姿勢 (寝姿勢) にある場合において、 指令の内容として座り姿勢でしかできないような 「足をばたばたさ せる」 といった内容が送られてとき、 そのまま足をばたばたばたさ せる命令を出してしまうと、 寝姿勢から座り姿勢への遷移と足をば たばたさせる動作とが実行されてしまうことになり、 ぺッ ト型ロボ ッ ト 2 3はバランスを崩して転倒してしまう場合がある。
従って、 姿勢遷移機構部 9 2は、 行動決定機構部 9 1から供給さ れた行動指令情報 S 1 6が直接遷移可能な姿勢を示す場合には、 当 該行動指令情報 S 1 6をそのまま姿勢遷移情報 S 1 8として制御機 構部 9 3に送出する一方、 直接遷移不可能な姿勢を示す場合には、 遷移可能な他の姿勢や動作を経由して目標とされる姿勢 (行動指令 情報 S 1 6により指示された姿勢) まで遷移させるような姿勢遷移 情報 S 1 8を生成し、 これを制御機構部 9 3に送出する。 これによ り、 ペッ ト型ロボッ ト 2 3は、 遷移不可能な姿勢を無理に実行しよ うとする事態や転倒するようなことを回避することができる。 一方 で、 目標とされる姿勢或いは動作に遷移するまで複数の動作を用意 しておく ことは表現の豊富化に結びつく。
また、 ペッ ト型ロボッ ト 2 3は、 現実の世界において電子ぺッ ト の行動を出現させるものである。 よって、 上述のように、 目的とさ れる動作或いは姿勢に遷移させる際に、 現在の姿勢等を考慮するこ とは必要不可欠なことである。 なお、 後述するようなリソースの競 合を考慮することも必要不可欠なことである。 なお、 仮想世界 (画 面上) で電子ぺッ 卜の行動を出現させるような仮想電子ぺッ ト装置
2 2では、 このようなことを考慮する必要はない。
具体的には、 姿勢遷移機構部 9 2は、 ペッ ト型ロボッ ト 2 3がと り得る姿勢及び動作が登録されているグラフであって、 姿勢とこの 姿勢を遷移させる動作とを結んで構成されたグラフを保持して、 現 在の姿勢から目標とされる姿勢又は目標とされる動作までの経路を、 指令情報とされる行動指令情報 S 1 6に基づいてグラフ上において 探索して、 その探索結果に基づいて動作させて、 現在の姿勢から目 標とされる姿勢又は目標とされる動作に遷移させる。 すなわち、 姿 勢遷移機構部 9 2は、 ペッ ト型ロボッ ト 2 3がとり得る姿勢を予め 登録すると共に、 遷移可能な 2つの姿勢の間を記録しておく ように なされており、 このグラフと行動決定機構部 9 1から出力された行 動指令情報 S 1 6とに基づいて目標とされる姿勢或いは動作まで遷 移させる。
具体的には、 姿勢遷移機構部 9 2は、 上述のようなグラフとして、 図 1 5に示すような有向グラフ 9 6と呼ばれるアルゴリズムを用い ている。 有向グラフ 9 6では、 ペッ ト型ロボッ ト 2 3がとり得る姿 勢を示すノードと、 遷移可能な 2つの姿勢 (ノード) の間を結ぶ有 向アーク (動作アーク) と、 場合によっては-一つのノードから当該 一つのノードに戻る動作のアーク、 すなわち一つのノ一ド内で動作 を完結する動作を示す自己動作アークとが結合されて構成されてい る。 すなわち、 姿勢遷移機構部 9 2は、 ペッ ト型ロボッ ト 2 3の姿 勢 (静止姿勢) を示す情報とされるノードと、 ペッ ト型ロボッ ト 2 3の動作を示す情報とされる有向アーク及び自己動作アークとから 構成される有向グラフ 9 6を保持し、 姿勢を点の情報として、 さら に動作 (或いは行動) の情報を有向線の情報として把握している。 ここで、 有向アークや自己動作アークは複数とされていてもよく、 すなわち、 遷移可能なノード (姿勢) の間に有向アークが複数接合 されてあってもよく、 一つのノードにおいて複数の自己動作アーク が結合されていてもよい。
姿勢遷移機構部 9 2は、 行動決定機構部 9 1から行動指令情報 S 1 6が供給されると、 現在の姿勢に対応したノードと、 行動指令情 報 S 1 6が示す次にとるべき姿勢に対応するノードとを結ぶように、 有向アークの向きに従いながら現在のノ一ドから次のノードに至る 経路を探索し、 当該探索した経路上にあるノードを順番に記録する ことにより、 姿勢遷移の計画を立てるようになされている。 以下、 このような現在の姿勢から目標とされるノード (指令により指示さ れたノード) 、 或いは目標とされるアーク (指令により指示された アーク) の探索を、 経路探索という。 ここで、 目標とするアークと は、 有向アークであってもよく、 自己動作アークであってもよい。 例えば、 自己動作アークが目標とされるアークとなる場合とは、 自 己動作が目標とされた (指示された) 場合であって、 例えば、 所定 の芸 (動作) が指示された場合等が挙げられる。
姿勢遷移機構部 9 2は、 経路探索により得た目標とされる姿勢 (ノード) 或いは目標とさえる動作 (有向アーク或いは自己動作ァ —ク) までの姿勢遷移計画に基づいて、 遷移のための制御命令 (姿 勢遷移情報 S 1 8 ) を後段の制御機構部 9 3に出力する。
例えば、 図 1 6に示すように、 現在の姿勢が 「ふせる」 という姿 勢を示すノード ND 2にある場合には、 「すわれ」 という行動指令情 報 S 1 6が供給されると、 「ふせる」 の姿勢を示すノ一ド ND2から
「すわる」 の姿勢を示すノード ND 5へは有向アーク a 9が存在して おり、 直接遷移が可能であり、 これにより、 姿勢遷移機構部 9 2は、
「すわれ」 という内容の姿勢遷移情報 S 1 8を制御機構部 9 3に与 える。
また、 姿勢遷移機構部 9 2は、 現在の姿勢が 「ふせる」 という姿 勢を示すノード ND2にある場合において 「歩け」 という行動指令情 報 S 1 6が供給されると、 「ふせる」 から 「歩く」 まで直接的に遷 移ができないので、 「ふせる」 の姿勢を示すノード ND 2から 「ある く」 の姿勢を示すノード ND 4に至る経路を探索することにより姿勢 遷移計画を立てる。 すなわち、 「ふせる」 の姿勢を示すノード ND 2から有向アーク a2を経由して、 「たつ」 の姿勢を示すノード ND 3を選択し、 さらに、 「たつ」 の姿勢を示すノード ND3から有向ァ ーク a3を経由して 「あるく」 の姿勢を示すノード ND4に至るとい つた姿勢遷移計画を立てる。 このような姿勢遷移計画の結果として、 姿勢遷移機構部 9 2は、 「たて」 という内容の姿勢遷移情報 S 1 8 を出し、 その後に 「歩け」 という内容の姿勢遷移情報 S 1 8を制御 機構部 9 3に出力する。
また、 ペッ ト型ロボッ ト 2 3は、 各構成部分を別個に動作させる ことが可能とされている。 すなわち、 各構成部分それぞれについて の指令を実行させることができる。 ここで、 ロボッ ト装置 (全体) 1のそのような構成部分として、 図 1 7に示すように、 大別して頭 部 6 1、 足部 6 3、 尻尾部 6 4が挙げられる。
このように構成されているぺッ ト型ロボッ ト 2 3において、 尻尾 部 6 4と頭部 6 1 とを個別に動作させることができる。 つまり、 リ ソースが競合しないので個別に動作させることができる。 一方、 ぺ ッ ト型ロボッ ト 2 3の全体と頭部 6 1 とを別個に動作させることは できない。 つまり、 リソースが競合するので個別に動作させること はできない。 例えば、 指令の内容の中に頭部 6 1の動作が含まれて いるような全体の動作が実行されている間は、 頭部 6 1についての 指令の内容を実行することはできない。 例えば、 頭部 6 1を振りな がら尻尾部 6 4を振ることは可能であり、 全身 (全体) を使った芸 をしている最中に頭部 6 1を振ることは不可能であるといったよう にである。 このようなリソースの競合の発生は、 現実のものとして 電子ぺッ 卜を構成するぺッ ト型ロボッ ト 2 3の特有の問題である。 下記の表には、 行動決定機構部 9 1から送られてく る行動指令情 報 S 1 6に、 リソースが競合する場合と、 リソースが競合しない場 合の組合せの一例を示している。
(以下余白)
部位の組み合わせ リソースの競合 頭、 尻尾 しない 頭、 全体 する 足、 全体 する 頭、 足、 尻尾 しない
このように、 リソースが競合するような指令が送られてきた場合、 全体 2 3の動作についての指令又は頭部 6 1の動作についての指令 の何れか一方を先行して実行しなければならなくなる。 以下に、 そ のような指令がなされている場合における処理について説明する。
リ ソースが競合するため、 一方の指令を先行して実行する場合、 例えば、 全体 2 3の動作を終了させてから、 頭部 6 1についての命 令を実行するような場合、 全体 2 3の動作により至った最後の姿勢 から頭部 6 1の動作が開始されることになる。 しかし、 全体 2 3の 動作後の最後の姿勢が、 頭部 6 1を振るといった動作を開始するの にふさわしい姿勢になっているとは限らない。 全体 2 3の動作後の 最後の姿勢が、 頭部 6 1の動作開始にふさわしい姿勢になっていな い状態で、 すなわち、 異なる指令により遷移する前後の姿勢が不達 続となるような場合において、 頭部 6 1の動作を開始してしまうと、 頭部 6 1が急激な動作を示し、 不自然な動作となってしまう場合が ある。 この問題は、 現在の姿勢 (或いは動作) から目標とする姿勢 (或いは動作) がぺッ ト型ロボッ ト 2 3の全体と各構成部分にまた いでおり、 ペッ ト型ロボッ ト 2 3の全体を制御するために構築され ているノード及びアークからなるネッ トワーク (グラフ) と、 ぺッ ト型ロボッ ト 2 3の各構成部分を制御するために構築されているノ ード及びアークからなるネッ トワーク (グラフ) とが何らつながり を持たずに別個に構築されている場合に生じる問題である。
上述のように遷移する前後の姿勢が不連続であることに起因して ペッ ト型ロボッ ト 2 3がなす不自然な動きは、 グラフ上において遷 移動作を滑らかにつなげるように姿勢遷移計画を立てることにより、 解消される。 具体的には、 全体及び構成部分のグラフ上において共 有する基本姿勢を取り入れて、 姿勢遷移計画を立てることによりこ れを解消している。
ペッ ト型ロボッ ト 2 3の姿勢遷移計画に使用するためのネッ トヮ 一クの倩報を、 図 1 8 Aに示すように、 全体のネッ トワークの情報 (グラフ) と、 各構成部分のネッ トワークの情報 (グラフ) とから、 全体として階層的構造として構成している場合について以下に説明 する。 例えば、 全体のネッ トワークの情報 (グラフ) と、 各構成部 分のネッ トヮ一クの惜報 (グラフ) とからなる姿勢遷移計画に使用 する情報は、 上述の図 1 2に示すように、 姿勢遷移機構部 9 2内に おいて構築されている。
基本姿勢は、 全体の動作と各構成部分の動作との間で状態を移行 するために一旦遷移される姿勢であって、 基本姿勢としては、 例え ば、 図 1 8 Bに示すように、 座り姿勢が挙げられる。 基本姿勢を座 り姿勢とした場合について、 遷移動作を滑らかにつなげる手順を説 明する。
具体的に、 図 1 9に示すように、 現在の姿勢が全体のグラフの姿 勢 N D a。として把握され、 目標として頭部の動作 a 2を実行させる場 合について説明する。
全体のグラフ上において、 ペッ ト型ロボッ ト 2 3の全体の姿勢を、 現在の姿勢 N D a。から基本姿勢 N D a bに遷移させる有向アーク a。を 選択する。 ここで、 全体が基本姿勢になる場合には、 頭部、 足部、 及び尻尾部のグラフ上においても基本姿勢の状態 (ノード) として 把握されることとなる。
頭部のグラフでは、 基本姿勢 N D h bの状態から最適な有向アーク a ,が選択され、 目標とする頭部 6 1の動作 (自己動作アーク) a 2 までの経路が決定される。
このような手順により、 全体と各構成部分との間の動作を滑らか につなげるような遷移経路の選択 (姿勢遷移計画) が、 全体のグラ フと頭部のグラフとにおいてなされる。 そして、 制御機構部 9 3は、 姿勢遷移情報 S 1 9を姿勢遷移計画に基づいて制御機構部 9 3に出 力する。
上述した例は、 全体の動作から各構成部の動作を滑らかにつなげ る具体例である。 次に、 各構成部分の動作から全体の動作を滑らか につなげる具体例について説明する。 具体的には、 図 2 0に示すよ うに、 頭部のグラフにおいて頭部 6 1が姿勢 N D h «として把握され、 足部のグラフにおいて足部 6 3が姿勢 N D r。として把握され、 目標 として全体の動作 a を実行させる場合について説明する。 頭部のグラフ上において、 頭部 6 1の姿勢を、 現在の姿勢 NDh0 から基本姿勢 NDal,に遷移させる有向アーク a。を選択する。 また、 足部のグラフ上において、 足部 6 3の姿勢を、 現在の姿勢 NDf。か ら基本姿勢 NDf bに、 姿勢 NDf !を経由して遷移させる有向アーク a a2を選択する。 なお、 尻尾部 64についてはもともと基本姿 勢にあるものとする。 このように各構成部分が基本姿勢になる場合 には、 全体のグラフ上においても基本姿勢として把握されることに なる。
そして、 全体のグラフ上では、 基本姿勢 NDhl,の状態から最適な 有向アーク a3が選択され、 目標とする全体の動作 (自己動作ァー ク) a 4までの経路が決定される。
例えば、 構成部分それぞれにおいての動作については、 基本姿勢 に遷移するときの他の構成部分の動作と同時に実行することでもよ く、 制限を付けて各構成部分の動作を実行するようにすることもで きる。 例えば、 あるタイ ミングにより行うようにすることでもよい。 具体的には、 頭部 6 1を使って芸をしている最中に全体 2 3の動 作についての指令がなされた場合には、 頭部 6 1については芸を実 行している最中なので基本姿勢 N D hl,への遷移はできないので、 先 ず、 足部 6 3を先に基本姿勢 NDfbの状態にしてから、 芸を終了し た頭部 6 1を基本姿勢 NDhbの状態に遷移させるようにするといつ たようにである。
また、 全体 2 3の姿勢のバランス等を考慮に入れて、 各構成部分 を動作させるようにすることもできる。 例えば、 頭部 6 1 と足部 6 3とを同時に移動してしまうと、 或いは頭部 6 1を最初に基本姿勢 ND hbの状態にしてしまうと、 バランスを失って、 転倒してしまう ような場合、 先に足部 6 3を基本姿勢 NDf t)の状態にしてから、 頭 部 6 1を基本姿勢 NDhl,の状態に遷移させるようにする。
以上のように一旦基本姿勢に遷移されるような姿勢遷移計画を立 てることにより、 動作を滑らかにつなげることができる。
姿勢遷移機構部 9 2は、 上述したように、 行動決定機構部 9 1か ら送られてきた行動指令情報 S 1 6に基づいて、 指令により目標と される姿勢或いは動作までの最適経路を検索をして姿勢遷移計画を 立て、 その姿勢遷移計画に従って、 姿勢遷移情報 S 1 8を制御機構 部 9 3に出力する。
これにより、 ペッ ト型ロボッ ト 2 3は、 遷移不可能な姿勢を無理 に実行しょうとする事態や転倒するようなことを回避することがで きる。 一方で、 目標とされる姿勢或いは動作に遷移するまで複数の 動作を用意しておく ことは表現の豊富化に結びつく。
制御機構部 9 3では、 図 8に示すように、 姿勢遷移情報 S 1 8を 基にァクチユエ一夕 7 8 A〜 7 8 Nを駆動させるための制御信号 S 5を生成し、 これをァクチユエ一夕 7 8 A〜 7 8 Nに送出して当該 ァクチユエ一夕 7 8 A〜 7 8 Nを駆動させることにより、 ぺッ ト型 ロボッ ト 2 3に所望の動作を行わせるようになされている。
具体的には、 次の行動を実行するために姿勢又は動作の遷移が必 要である場合には、 制御機構部 9 3は、 姿勢遷移機構部 9 2から送 られてく る姿勢遷移計画に従った姿勢遷移情報 S 1 8に基づいてァ クチユエ一夕 7 8 A〜 7 8 Nを制御して、 ぺッ 卜型ロボッ ト 2 3を 所望の姿勢或いは動作に遷移させる。 そして、 制御機構部 9 3は、 次に送られてく る選択モジュール 94により選択された行動の情報 に基づいてァクチユエ一夕 7 8 A〜 7 8 Nを制御して、 ぺッ ト型ロ ボッ ト 2 3に選択された行動、 例えば芸を出現させる。
なお、 次の行動を実行するために姿勢又は動作の遷移が不要であ る場合には、 制御機構部 9 3は、 姿勢又は動作の遷移をせずに、 次 に送られてく る選択モジュール 9 4によ り選択された行動の情報に 基づいてァクチユエ一夕 7 8 A〜 7 8 Nを制御して、 ぺッ ト型ロボ ッ ト 2 3に選択された行動 (例えば芸) を出現させる。
以上、 ペッ ト型ロボッ ト 2 3のより具体的な構成である。 このよ うなペッ ト型ロボッ ト 2 3は、 外部情報 (周囲の環境或いは外的要 因等) からの情報或いは内部情報 (内的要因等) に基づいて、 感情 モデル及び本能モデルにより感情及び本能の状態を変化させ、 その 感情や本能の状態に応じて行動することができる。
これにより、 例えば、 ペッ ト型ロボッ ト 2 3は、 内部状態に電子 ぺッ 卜の感情や本能に対応するパラメ一夕が含まれているので、 怒 り易い電子ぺッ トゃ泣き虫の電子ぺッ トなどを実現することができ、 そして、 電子ぺッ トにそのような感情及び本能を加味したァクショ ンを起こさせ、 さらに、 その自分自身が行ったアクションによって 感情を変化させることが可能となる。 具体的には、 例えば、 電子べ ッ 卜が空腹な状態で、 それに伴って怒りの感情が高ぶっている場合 に、 電子ペッ トに泣いたり眠らせるアクションを行わせ、 そのァク ションによって怒りの感情の高ぶりを静めさせるようなことが可能 となる。 これにより、 より リアリティのある電子べッ トが実現され る。
なお、 実施の形態では、 図 7及び図 8の構成をペッ ト型ロボッ ト 2 3の具体的な構成として示したが、 図 7及び図 8に示した構成を 仮想電子べッ ト装置 2 2に適用することができることは言うまでも ない。 例えば、 仮想電子ぺッ ト装置 2 2へ適用する場合、 不適切な 部分については等価な技術を採用して、 図 7及び図 8に示すような 仮想電子ぺッ ト装置 2 2を実現する。 例えば、 仮想電子ぺッ ト装置 2 2の場合、 動作部 (ァクチユエ一夕 7 8 A〜 7 8 N ) は要らない ので、 これを画像表示部への出力に変更し、 仮想電子ペッ ト装置 2 2を実現する。 また、 仮想電子ペッ ト装置 2 2の場合、 姿勢遷移計 画やリソースの競合を解決するための機構も必要ない。
これにより、 仮想世界 (表示画像上) でも同様に、 外部或いは内 部の情報に基づいて、 感情モデル及び本能モデルにより感情及び本 能の状態を変化させ、 その感情や本能の状態に応じて行動するよう な電子ぺッ トを実現することができる。
また、 上述したように、 電子ペッ トシステムでは、 個体情報記憶 部 1 ( I Cカード 2 1 ) にぺッ ト特徴情報を記憶し、 この記憶した ぺッ ト特徴情報に基づいて上述したような感情或いは本能を有する 電子ぺッ トを実現している。
例えば、 上述したように仮想電子べッ ト装置 2 2ゃぺッ ト型ロボ ッ ト 2 3が構成された場合、 個体情報記憶部 1 ( I Cカード 2 1 ) に記憶されるぺッ ト特徴情報としては、 上述したような感情モデル 及び本能モデルにより決定される感情パラメ一夕や本能パラメ一夕 等が挙げられる。 この場合、 個体情報記憶部 1には、 例えば図 2 1 に示すように、 感情パラメ一夕や本能パラメ一夕が記憶される。 また、 ペッ ト特徴情報としては、 行動を決定する際の遷移確率を 個体情報記憶部 1に記憶することもできる。
図 1 3を用いて説明したように、 有限確率ォ一トマトンを用いて、 1つのノード (状態) N◦D E。〜N O D E nから他のどのノードN 0 D E。〜N 0 D E nに遷移するかを各ノ一ド N O D E。〜N O D E„ に間を接続するアーク A R C!〜八 C n ,に対してそれぞれ設定され た遷移確率 P !〜P nに基づいて確率的に行動を決定しており、 この 遷移確率 P,〜P nを個体情報記憶部 1に記憶することもできる。 こ の遷移確率 P ! P nは、 感情の状態、 本能の状態、 或いは学習によ り変更することが可能であるので、 これを記憶し、 電子ペッ トの個 性といったものを実現することができる。
なお、 個体情報記憶部 1に記憶されるペッ ト特徴情報は、 上述の 例に限定されるものではない。
例えば、 電子ぺッ 卜の名前、 主人の名前 (飼い主 (ユーザ) の名 前) 、 成長した時間、 転生輪廻残数、 種族であってもよい。 成長し た時間とは、 例えば、 電子ぺッ 卜が生まれてから現在までの経過時 間である。 また、 電子ペッ ト (の魂) は、 死んでも生き返ることが できるようになされており、 転生輪廻残数は、 生き返ることのでき る残りの回数を示す情報となる。 具体的には、 リセッ ト回数となる。 また、 種族とは、 電子ぺッ トが例えば犬であるとか、 猫であるとか、 鳥であるとかなどの、 電子ペッ トの種類を示す情報である。 なお、 電子ペッ トの種類は、 必ずしも、 実在する動物である必要はない。
また、 ペッ ト特徴情報は学習情報であってもよい。 学習情報は、 電子べッ 卜が所定の芸をすることができるかどうかに関する情報で ある。 すなわち、 電子ペッ トに、 幾つかの芸を学習させることがで きるようになされており、 学習情報は、 それぞれの芸をすることが できるかどうかを示す情報となる。
また、 本実施の形態においては、 内部状態などを、 仮想電子ぺッ ト装置 2 2やペッ ト型ロボッ ト 2 3に対して着脱可能な I Cカード 2 1に記憶させるようにしたので、 ユーザの環境にあった形で電子 ぺッ 卜を楽しむことが可能となる。
また、 本実施の形態では、 I Cカード 2 1を仮想電子ペッ ト装置 2 2やペッ ト型ロボッ ト 2 3に装着し、 電子ぺッ トとして機能させ るようにしたが、 I Cカード 2 1は、 その他例えば一般的なコンビ ユー夕などに装着するようにすることもでき、 それにより、 コンビ ュ一夕を電子ぺッ ト として機能させることも可能である。
また、 本実施の形態では、 本発明を電子ペッ トを対象として説明 したが、 本発明は電子ペッ ト以外の生命体オブジェク ト (例えば、 植物のオブジェク トなど) も対象とすることが可能である。
さらに、 本実施の形態においては、 ペッ ト特徴情報を I Cカード に記憶させるようにしたが、 ぺッ ト特徴情報を記憶させる記憶手段 としては、 その他、 例えば、 メモリカード、 光カード、 光磁気ディ スク、 磁気ディスクなどの携帯に便利で装置に着脱可能なものを採 用することができる。
さらに、 本実施の形態では、 ペッ ト特徴情報を記憶する個体情報 記憶部 1を本体部 2に対して着脱可能としたが、 本体部 2に着脱不 可能なメモリ (内蔵型記憶媒体又は記憶装置等) を設け、 そのメモ リにペッ ト特徴情報を記憶させてもよい。 この場合、 個体情報記憶 部 1 と本体部 2は、 例えば通信ケーブル、 無線、 赤外線等の各種通 信手段を用いて、 ペッ ト特徴情報等を交信する。
なお、 仮想電子ぺッ ト装置 2 2では、 電子ぺッ トはモニタに表示 される仮想的な存在であるから、 その外観の変更は容易であるが、 ペッ ト型ロボッ ト 2 3がその外観の変更を自身で行うのは困難であ る。 従って、 ペッ ト型ロボッ ト 2 3では、 ペッ ト特徴情報のうち外 観に関するものは基本的に無視される。 ただし、 例えばペッ ト型口 ボッ ト 2 3が犬型のものである場合に、 ぺッ ト特徴情報の種族が鳥 になっているときなどにおいては、 ぺッ ト型ロボッ ト 2 3にパーツ を鳥型のものに変更するように要求させる (例えば、 合成音などに より要求させる) ようにすることなどは、 可能である。
次に、 上述した第 1の実施の形態において使用している、 着脱可 能な I Cカードの一具体例を図 2 2乃至図 2 4に示す。 なお、 I C カードには、 現在、 様々な形状のカードが規格化されており、 本発 明はそれら何れの I C力一ドについても適用可能である。 本実施の 形態では、 一例として例えばスティ ック状の I Cカードを例に挙げ ている。
ここで、 上記スティ ック状の I Cカードは、 上述したように着脱 可能となされているが、 当該スティ ック状の I Cカードを、 ユーザ がぺッ 卜型ロボッ ト 2 3や仮想電子ぺッ ト装置 2 2のスロ ッ ト 2 3 A , 2 2 Aに装填する場合、 ユーザは、 当該 I Cカードをどこまで 深く差し込んでもよいのか判断に困ることが考えられる。 すなわち、 当該 I Cカードをぺッ ト型ロボッ ト 2 3や仮想電子ぺッ ト装置 2 2 のスロ ッ ト 2 3 Aや 2 2 Aに装填する際に、 例えば装着音 ( 「カチ ッ」 というような音) によってユーザが装着感を得ることができた り、 また、 ペッ ト型ロボッ ト 2 3や仮想電子べッ ト装置 2 2が I C カードのロック/イジェク ト機能を有するのであればよいが、 それ ら装着感が得られない場合や口ックダイジヱク ト機能を有さない場 合には、 ユーザが当該 I Cカードをスロ ッ 卜に無理矢理深く押し込 んで I Cカードを破損させてしまったり、 逆に、 I Cカードの差し 込み不足によってデ一夕の送受信ができなくなるようなことが考え られる。
そこで、 本実施の形態では、 図 2 2に示すように、 I Cカード 1 3 1に対して、 所定の差し込み位置を示すための色分けを施してい る。 すなわち、 I Cカード 1 3 1がペッ ト型ロボッ ト 2 3や仮想電 子ぺヅ ト装置 2 2のスロッ ト 2 3 Aや 2 2 Aに差し込まれた時に、 当該スロッ 卜から外に出るべき部分 1 3 4の色と、 スロッ ト内に差 し込まれて隠れる部分 1 3 3の色とを異ならせる (色分けする) こ とで、 正確に装填された状態をユーザが視認できるようにしている。 なお、 図 2 2は、 I Cカード 1 3 1本体に貼り付けられたラベル 1 3 2を色分けした例を挙げているが、 I Cカード 1 3 1本体そのも のを色分けしてもよい。 また、 色分けの際の各部分 1 3 3、 1 3 4 の色についても、 本発明は特に限定することなく、 任意の色を使用 可能である。
図 2 2の例は、 I Cカード 1 3 1を色分けする例を挙げたが、 例 えば、 I Cカード 1 3 1の色分けと共に、 或いは当該色分けに替え て、 図 2 3に示すような矢印マーク 1 3 5を設けるようなことも可 能である。 この図 2 3は、 図 2 2の例と同様にスロッ トから外に出 るべき部分 1 3 4の色とスロッ ト内に差し込まれて隠れる部分 1 3 3の色とを色分けすると共に、 スロッ 卜から外に出るべき部分 1 3 4に矢印マーク 1 3 5を付加した例を挙げている。 このように、 矢 印マーク 1 3 5を設けるようにすれば、 ユーザは、 当該 I Cカード 1 3 1をスロッ トに正確に装填可能となるだけでなく、 I Cカード 1 3 1の装填方向も容易に認識可能となる。 なお、 図 2 3は、 I C カード 1 3 1本体に貼り付けられたラベル 1 3 2を色分けすると共 に矢印マーク 1 3 5を付加した例を挙げているが、 I Cカード 1 3 1本体そのものに矢印マーク 1 3 5を設けるようにしてもよい。 さらに他の例として、 例えば、 I Cカード 1 3 1の色分けと共に、 或いは当該色分けに替えて、 図 2 4に示すような境界位置を示すラ イン 1 3 6を設けるようなことも可能である。 この図 2 4は、 図 2 2の例と同様にスロッ 卜から外に出るべき部分 1 3 4の色とスロッ ト内に差し込まれて隠れる部分 1 3 3の色とを色分けすると共に、 スロッ トから外に出るべき部分 1 3 4とスロッ ト内に入るべき部分 1 3 3との境界位置にライン 1 3 6を付加した例を挙げている。 こ のように、 ライン 1 3 6を設けるようにすれば、 ユーザは、 当該 I Cカード 1 3 1をスロッ 卜に正確に装填可能となる。 なお、 図 2 4 は、 I Cカード 1 3 1本体に貼り付けられたラベル 1 3 2を色分け すると共にライン 1 3 6を付加した例を挙げているが、 I Cカード 1 3 1本体そのものにライン 1 3 6を設けるようにしてもよい。 図 2 5には、 上述したような I Cカード 1 3 1が、 ペッ ト型ロボ ッ ト 2 3や仮想電子べッ 卜装置 2 2のスロッ トに正確に装填された 状態を示している。
次に、 図 2 6には、 I Cカード 1 3 1本体に貼り付けられるラベ ル 1 3 2の一例を示す。 なお、 この図 2 6のラベル 1 3 2は、 図 2 2の例のように色分けのみを行う場合の例であり、 I Cカード 1 3 1がスロッ トに差し込まれた時に当該スロッ トから外に出るべき部 分 1 3 4の色と、 スロッ ト内に差し込まれて隠れる部分 1 3 3の色 とが色分けされている。
図 2. 7 Aには、 図 2 2〜図 2 4を I Cカード 1 3 1の平面図であ るとした場合の底面図を、 図 2 7 Bには側面図を示している。 この I Cカード 1 3 1には、 ペッ ト型ロボッ ト 2 3や仮想電子べッ 卜装 置 2 2のスロッ ト 2 3 A, 2 2 A内に設けられているデ一夕送受信 用の端子と接続される端子部 1 3 7と、 データの書き込みを禁止す る際の書き込み禁止口ック 1 3 8 とが設けられている。 図 2 6のラ ベル 1 3 2は、 上記スロッ トから外に出るべき部分 1 3 4が I C力 ード 1 3 1の底面側に回り込むように貼り付けられる。
次に、 本発明の第 2の実施の形態について以下に説明する。 第 1の実施の形態では、 着脱可能な I C力一ド等の記憶媒体に個 体情報記憶部 1 (電子ペッ トのペッ ト特徴情報) を記憶可能とし、 この I Cカードを仮想電子ぺッ ト装置 2 2ゃぺッ ト型ロボッ ト 2 3 のスロッ ト 2 2 A, 2 3 Aに着脱可能とすることで、 仮想電子ぺッ ト装置 2 2とペッ ト型ロボッ ト 2 3との間でぺッ ト特徴情報の転送 を可能とした例を挙げたが、 この第 2の実施の形態では I Cカード を介さずにぺッ ト特徴情報を通信により転送可能とした例について 説明する。
図 2 8には、 本発明の第 2の実施の形態の接続例を示している。 図 2 8中の仮想電子ぺッ ト装置 2 0 2は、 前述した仮想電子ぺッ ト装置 2 2と基本的に同じものであり、 また図 2 8中のペッ ト型口 ボッ ト 2 0 4も、 前述したペッ ト型ロボッ ト 2 3 と基本的に同じも のであるが、 当該第 2の実施の形態の場合、 仮想電子ペッ ト装置 2 0 2 とペッ ト型ロボッ ト 2 0 4は、 両方とも前述した個体情報記憶 部 1のぺッ ト特徴情報を通信により入替え可能とする通信処理部を 備えている。 なお、 当該通信処理部を介して通信されたペッ ト特徴 情報は、 前述同様の I Cカードに記憶することも、 また、 それぞれ 内蔵されているデ一夕格納部 2 0 3, 2 0 5 (図 2 8の例では仮想 電子ぺッ ト装置 2 0 2, ペッ ト型ロボッ ト 2 0 4の外に描いている が実際にはそれぞれ内蔵されている) にそれぞれ格納することも可 能である。 この第 2の実施の形態では、 内蔵されているデータ格納 部 (こぺッ ト特徴情報を格納する場合を例に挙げて説明する。
この図 2 8の接続例では、 仮想電子ぺッ ト装置 2 0 2とペッ ト型 ロボッ ト 2 0 4がそれぞれパ一ソナルコンピュー夕 2 0 1に接続さ れ、 またパーソナルコンピュー夕 2 0 1がインターネッ ト 2 0 0等 のネッ 卜ワークに接続された例を挙げているが、 パーソナルコンビ ユー夕 2 0 1を介さずに仮想電子ぺッ ト装置 2 0 2とペッ ト型ロボ ッ ト 2 0 4を直接接続することも、 またパーソナルコンピュータ 2 0 1 を介さずにィンターネッ ト 2 0 0に直接接続することも可能で ある。 さらに、 第 2の実施の形態の場合は、 仮想電子ペッ ト装置 2 0 2同士、 ペッ ト型ロボッ ト 2 0 4同士を接続することも可能とな つている。
なお、 電子ぺッ トは、 仮想電子ぺッ ト装置 2 0 2やペッ ト型ロボ ッ ト 2 0 4だけでなく、 パーソナルコンピュー夕 2 0 1上でも実現 可能である。 すなわち、 この場合、 パーソナルコンピュータ 2 0 1 には、 上述した電子ぺヅ トを実現するためのアプリケーションプロ グラムがィンス トールされ、 この電子べッ ト用ァフ。リケーシヨンプ ログラムを立ち上げることで、 当該パーソナルコンピュータ 2 0 1 上で電子ぺッ 卜の飼育等が可能となる。 従って、 このパーソナルコ ンピュ一夕 2 0 1には、 電子べッ 卜のぺッ ト特徴情報も格納される ことになる。
ここで、 この第 2の実施の形態において、 仮想電子ペッ ト装置 2 0 2 とぺッ ト型ロボッ 卜 2 0 4との間でぺッ ト特徴情報を送受信す る場合の接続形態としては、 ケーブルを介した接続、 無線による接 続、 赤外線による接続など、 各種の接続形態が考えられ、 本発明は それらケーブル、 無線、 赤外線による接続を含む他の全ての接続形 態に対応可能である。
図 2 9には、 上述したようにぺッ ト特徴情報を通信により転送可 能とするペッ ト型ロボッ ト 204の主要部 (通信処理部) の構成を 示す。 なお、 当該ペッ ト型ロボッ ト 2 04は前述した図 3、 図 5乃 至図 7に示した構成を有するものであるが、 図 2 9にはぺッ ト特徴 情報の通信に必要となる部分 (通信処理部) のみを抜き出して示し ている。 また、 この図 2 9の例では、 接続形態の一例として赤外線 による接続 ( I rD a) とシリアルケーブル接続と無線接続を例に 挙げている。
この図 29において、 RAM 2 1 1は上記図 5の RAM 3 3に相 当し、 演算処理装置 2 1 2は図 5の CP U 3 1に相当する。
当該図 29のぺヅ ト型ロボッ ト 204の通信処理部 2 1 0は、 外 部 (例えば仮想電子ペッ ト装置やパーソナルコンピュータ、 イン夕 ーネッ ト等) と接続してぺッ ト特徴情報を送受信するための通信手 段として、 赤外線 ( I r D a) 送受信部 2 1 7とシリアルポート部 2 1 8と無線送受信部 2 1 9等を有している。 これら通信手段は、 通信制御部 2 1 5に接続されている。
通信制御部 2 1 5は、 図 5の C PU 3 1に相当する演算処理装置 2 1 2により制御され、 クロック発生部 2 1 6からの通信クロック に応じて動作し、 送受信するデータを通信手段の接続形態に対応す る通信プロ トコルに基づいて送受信する。
送信されるデ一夕は、 演算処理装置 2 1 2の制御の基で例えば R AM 2 1 1から読み出され、 送信バッファとしての送信データ格納 部 2 1 3に一旦格納された後、 通信制御部 2 1 5を介して通信手段 から送信される。 また、 通信手段にて受信されたデータは、 通信制 御部 2 1 5を介して受信バッファとしての受信データ格納部 2 1 4 に一旦格納された後、 R A M 2 1 1に送られる。
図 3 0には、 本発明の実施の形態にて使用される仮想電子ぺッ ト 装置の具体的外観を示している。
この図 3 0に示す仮想電子ぺッ ト装置 2 2 0は、 電子ぺッ トを表 示するためのモニタ 2 2 2と、 音声を出力するためのスピーカ 2 2 4と、 音声を取り込むためのマイクロホン 2 2 3、 ユーザが当該装 置 2 2 0に対して各種操作を入力するための操作ボタン 2 2 6と、 操作されたボタンに対応して点灯する L E D (発光ダイオード) 2 2 5 と、 前述したようにマイクロホン 2 2 3から取り込んだ音声の 分析を指示するためのトークスィ ッチ 2 2 1 とを有している。
この図 3 0に示すような仮想電子ぺッ ト装置 2 2 0の内部ハード ウェア構成は、 図 3 1に示すようなものとなる。 なお、 この図 3 1 に示す構成は、 基本的には前述した図 4 と同じ機能を有するもので あるが、 当該第 2の実施の形態のようにぺッ ト特徴情報の通信を可 能とするための構成として通信ィン夕一フヱイス 1 1 2を備えてい る。
この図 3 1において、 演算処理装置 1 1 3は R O M 1 1 6に記憶 されたプログラムに従って各種の処理を行うようになされている。 R O M 1 1 6は、 演算処理装置 1 1 3が実行すべきプログラムやそ のプログラムを実行するにあたって必要なデータを記憶している。 R A M 1 1 5は、 演算処理装置 1 1 3の動作上必要なデ一夕を記憶 するようになされている。 通信ィン夕ーフェイス 1 1 2は、 上記図 2 9の通信手段及び通信 制御部 2 1 5と対応するィン夕一フェイスとして機能する。
マイク (マイクロフォン) 2 24は、 そこに入力される音声をァ ナログの電気信号としての音声信号に変換し、 A/D変換器 1 0 1 に供給するようになされている。 A/D変換器 1 0 1は、 マイク 2 24からのアナログの音声信号を A/D変換し、 ディジタルの音声 信号として音声認識装置 1 04に出力する。
音声認識装置 1 04は、 入力された音声信号を線形予測分析する ことにより、 その特徴量を抽出し、 さらに例えば HMM法に基づい て音声認識を行うようになされている。 ここで、 音声認識装置 1 0 4が音声認識を行うために実行するプログラム、 及び音声認識の対 象とする単語のモデルは、 例えば R OM 1 0 3に記憶されている。 またこの R OM 1 0 3には、 音声認識の対象とする単語のモデルと して、 特に、 飼い主がペッ トに対して話しかけるのに用いる単語の モデルが記憶されている。 なお、 音響分析の手法は線形予測分析に 限定されるものではなく、 また、 音声認識の手法は HMM法に限定 されるものではない。 RAM 1 0 2は、 音声認識装置 1 04の動作 上必要なデータを記憶する。
キー部は、 図 3 0の操作ボタン 2 2 6と トークスィ ッチ 2 2 1に 相当する。 当該キー部 2 2 1 , 2 2 6をユーザが操作することによ り当該キー部から出力された信号は、 演算処理装置 1 1 3に入力さ れる。 これにより、 演算処理装置 1 1 3は、 ユーザが操作したボタ ンゃキーなどを認識する。 例えば、 キー部において操作ボタン 2 2 6が操作された場合には、 その操作に応じて電子ぺッ 卜に対して各 種の入力が与えられることになる。 また、 キー部において トークス イ ッチ 2 2 1が押された場合、 演算処理装置 1 1 3は音声認識装置 1 0 4に対して、 マイク 2 24から入力された音声の音声認識を開 始させる。
センサ 2 2 7は、 例えば音や光、 気温など外部環境の状態を検出 するセンサであり、 このセンサ 2 2 7からの検出信号は A/D変換 器 1 0 5によってディジ夕ル信号に変換され、 演算処理装置 1 1 3 に送られる。 演算処理装置 1 1 3では、 当該センサ 2 2 7による検 出データに基づいて電子ぺッ トの反応を制御する。
音声合成装置 1 1 4は、 演算処理装置 1 1 3の制御に基づいて電 子ペッ トの発する音声を合成する。 ここで、 音声合成装置 1 1 4に て音声合成を行うためのプログラム、 及び音声合成の基になるデ一 夕は、 例えば R〇M 1 0 7に記憶されている。 またこの R〇 M l 0 7には、 電子ぺッ トが発する各種の鳴き声などを合成するためのデ 一夕が記憶されている。 RAM 1 0 6は、 音声合成装置 1 1 4の動 作上必要なデータを記憶する。
D/A変換器 1 0 8は、 音声合成装置 1 1 4にて合成された音声 デ一夕を D/A変換し、 アナログの音声信号として、 スピーカ 2 2 3に供給する。 スピーカ 2 2 3は、 アンプを内蔵し、 D/A変換器 1 0 8からの音声を増幅して出力するようになされている。
液晶 (L CD) 表示部 2 2 2は、 演算処理装置 1 1 3により制御 される液晶コン トローラを含み、 各種の画像 (例えば、 電子ぺッ ト の画像など) や文字などを表示する。
次に、 図 3 2には、 仮想電子べッ ト装置 2 2 0とぺッ ト型ロボッ ト 2 04をシリアルデ一夕ケーブルの一例としての U S B (univer sal serial bus) ケーブルを介して接続し、 ぺッ ト特徴情報を転送 するようにした場合の、 仮想電子ぺッ ト装置 2 2 0とぺッ ト型ロボ ッ ト 2 04の内部の主要構成を示す。
この図 3 2において、 仮想電子ぺッ 卜装置 2 2 0の CP U 2 3 1 は、 図 3 1の演算処理装置 1 1 3に相当し、 RAM 2 3 6は図 3 1 の RAM I 1 5に、 R OM 2 3 5は図 3 1の R OM 1 1 6に相当す る。 画像制御装置 2 34は、 図 3 1の液晶表示部 2 2 2に含まれる 液晶コン トローラに相当する。 データ格納部 2 3 3は、 ぺッ ト特徴 情報を格納する。 このペッ ト特徴情報は、 1138ポー卜 2 3 2に接 続された U S Bケーブルを介してぺッ ト型ロボッ ト 2 04との間で 送受信される。
ペッ ト型ロボッ ト 2 04の C P U 24 1は、 図 2 9の演算処理装 置 2 1 2に相当し、 RAM 1 4 6は図 2 9の RAM 2 1 1に、 RO M245は図 2 9の ROM3 2に相当する。 機構制御装置 244は、 C P U 24 1の制御に基づいて図 5の駆動機構 5 2を制御する。 デ —夕格納部 2 3 3は、 ペッ ト特徴情報を格納する。 このペッ ト特徴 情報は、 U S Bポート 24 2に接続された U S Bケーブルを介して、 仮想電子ぺッ ト装置 2 2 0との間で送受信される。
次に、 図 3 3には、 仮想電子べッ ト装置 2 2 0とペッ ト型ロボッ ト 2 04を赤外線 ( I r DR) 送受信部を介して赤外線により接続 し、 ペッ ト特徴情報を転送するようにした場合の、 仮想電子ペッ ト 装置 2 2 0とぺッ ト型ロボッ ト 2 04の内部の主要構成を示す。 な お、 この図 3 3において、 図 3 2と同じ構成には同一の指示符号を 付して、 それらの説明は省略する。
この図 33の例において、 仮想電子ぺッ ト装置 2 2 0の赤外線送 受信部 2 3 7は、 図 3 1の通信ィン夕ーフェイス 1 1 2に設けられ てなるものである。 ペッ ト特徴情報は、 当該赤外線送受信部 2 3 7 とペッ ト型ロボッ ト 2 0 4の赤外線送受信部 2 4 7との間で送受信 される。
また、 ペッ ト型ロボッ ト 2 0 4の赤外線送受信部 2 4 7は、 図 2 9の赤外線送受信部 2 1 7に相当する。 ペッ ト特徴情報は、 当該赤 外線送受信部 2 4 7 と仮想電子ぺッ ト装置 2 2 0との間で送受信さ れる。
次に、 図 3 4には、 仮想電子ぺッ ト装置 2 2 0とペッ ト型ロボッ ト 2 0 4を無線送受信部を介して無線により接続し、 ぺッ ト特徴情 報を転送するようにした場合の、 仮想電子ぺッ ト装置 2 2 0 とぺッ ト型ロボッ ト 2 0 4の内部の主要構成を示す。 なお、 この図 3 4に おいて、 図 3 2と同じ構成には同一の指示符号を付して、 それらの 説明は省略する。
この図 3 4の例において、 仮想電子ぺッ ト装置 2 2 0の無線送受 信部 2 3 8は、 図 3 1の通信ィン夕一フェイス 1 1 2に設けられて なるものである。 ぺッ ト特徴情報は、 当該無線送受信部 2 3 8 とべ ッ ト型ロボッ ト 2 0 4の無線送受信部 2 4 8の間で送受信される。 また、 ペッ ト型ロボッ ト 2 0 4の無線送受信部 2 4 8は、 図 2 9 の無線送受信部 2 1 9に相当する。 ぺッ ト特徴情報は、 当該無線送 受信部 2 4 8 と仮想電子ぺッ 卜装置 2 2 0の無線送受信部 2 3 8と の間で送受信される。
ペッ ト型ロボッ ト 2 0 4及び仮想電子べッ ト装置 2 2 0の無線送 受信部 2 4 8 , 2 3 8は、 具体的には、 図 3 5に示すように、 Blue toothモジュール 2 4 8, 2 3 8を用いることができる。
B luetoothは、 免許が不要の 2.4 G Hzの I S M ( Industrial Sc ien tif i c Medical ) 帯を搬送周波数に使う無線ィン夕ーフェースである。 B luetoothモジュール 2 4 8 , 2 3 8は、 この B luetoothの無線イン 夕ーフヱースを採用して構成されたものである。 B luetoothの概略は 次のようになっている。
B luetoothは、 周波数ホッピング方式のスぺク トラム拡散技術を使 つている。 1 MHz幅のチャンネルを 7 9個使い、 1秒間に最大 1 6 0 0回チャンネルを切り換えることが可能とされている。 これによ つて、 ほかの無線通信に対する干渉を防止する。 ホッピングを高速 に切り替えるため、 キャ リアセンスは行わない。
最大データ伝送速度は 1 Mビッ 卜/秒である。 パケッ 卜の多重化 方式は、 T D D ( Time Divis ion Duplex) 回線交換とバケツ ト交換 の両方式に対応する。 非同期伝送をしながら、 6 4 kビッ ト/秒の 音声チャンネルを最大三つ同時に確保できる。
B luetooth対応機器は、 周波数ホッビング · パターンを決定する 「マス夕」 と、 それに従う最大 7台の 「スレーブ」 とに分かれる。 マス夕と数台のスレ一ブで構成するサブネッ トを 「ピコネッ ト」 と 呼ぶ。 マス夕は、 ピコネッ 卜のスレーブになることができるため、 ピコネッ 卜を数珠つなきにしたネッ トワーク形成が可能である。 例 えば、 このようなネッ トワーク構成をスカッターネッ トと呼ぶ。 ピ コネッ トゃスカツ夕一ネッ トでは、 8ビッ 卜の M A Cアドレスによ つて、 通信の管理や機器の状態を管理する。
また、 Bluetooth機器は、 その通信への参加状態によって、 消費電 力の異なるいくつかのモードに対応する。 仕様では、 モードを細か く分けることで、 消費電力を少なくする工夫がなされている。
Bluetoothにより、 マスタとスレーブとのリンクは以下のように設 定される。 先ず、 マス夕が、 接続のための鍵などを含むメッセ一ジ である 「Inquiry」 を 625 / s間隔で送信する。 スレーブ側は、 常に ホッピング . パターンで、 チャンネルを切り替えているため、 2秒 ほどでぶっかり、 同期がとれる。 それにより、 マス夕は、 スレーブ を認識し、 かつスレーブは 3ビッ 卜の 「Active member addressj を 取得し、 ピコネッ 卜に入る。 厂 Act ive member addressj は、 マス夕 と通信する機器に対して 3ビッ トのが割り振られるァドレス情報で ある。 この 「 Act ive member addressj が割り振られて、 ピコネッ ト が形成される。
その後、 マス夕がスレーブに対して、 「Page」 メッセ一ジを送る。 そこからスレーブはマス夕の決めたホッピング ·パターンで動作す る。
その後、 認証を行う。 認証に用いる暗号鍵は、 マス夕が発生させ る乱数と、 スレーブの M A Cア ドレスの排他的論理和で作る。 認証 が終了すると、 専用の鍵が渡され、 次からの処理を簡略化する。 そ の後デ一夕の送受信に移る。
以上が、 B luetoothの概略である。 ペッ ト型ロボッ ト 2 0 4及び仮 想電子ぺッ 卜装置 2 2 0は、 このような B luetoothの無線ィン夕一フ エースを採用された Bluetoothモジュール 2 4 8 , 2 3 8を無線送受 信部として備えることができる。
次に、 図 3 6には、 パーソナルコンピュータ 2 0 1 とペッ ト型口 ボッ ト 2 0 4をシリアルデータケーブルの一例としての U S Bケ一 ブルを介して接続し、 さらにパーソナルコンピュ一夕 2 0 1及びィ ン夕一ネッ ト 2 0 0を介してぺッ ト特徴情報を送受信可能とした場 合の、 パーソナルコンピュー夕 2 0 1 とぺッ ト型ロボッ ト 2 0 4の 内部の主要構成を示す。 なお、 この図 3 6において、 図 3 2と同じ 構成には同一の指示符号を付して、 それらの説明は省略する。
この図 3 6の例において、 パーソナルコンピュータ 2 0 1の C P U 2 5 1は、 プロセッサユニッ トに相当し、 ROM 2 5 5、 RAM 2 5 6、 U S Bポート 2 5 2も一般にパ一ソナルコンピュータに備 えられているものである。 また、 データ格納部 23 3は、 例えばハ —ドディスク等に相当する。 このパーソナルコンピュータ 2 0 1に よれば、 U S Bケ一ブルを介して例えばぺッ ト型ロボッ ト 2 04か ら送信されてきたぺッ ト特徴情報をィン夕一ネッ ト 2 0 0に転送し、 また、 インターネッ ト 2 0 0を介して受信されたぺッ ト特徴情報を U S Bケーブルを介してぺッ ト型ロボッ ト 2 04に転送する。
次に、 図 3 7には、 パーソナルコンピュータ 20 1とペッ ト型口 ボッ ト 204を赤外線を介して接続し、 さらにパーソナルコンビュ 一夕 2 0 1及びィン夕一ネッ ト 2 00を介してぺッ ト特徴情報を送 受信可能とした場合の、 パーソナルコンピュータ 2 0 1とペッ ト型 ロボッ ト 2 04の内部の主要構成を示す。 なお、 この図 3 7におい て、 図 3 6及び図 3 3と同じ構成には同一の指示符号を付して、 そ れらの説明は省略する。
この図 3 7の例によれば、 パーソナルコンピュータ 2 0 1は、 赤 外線送受信ポート 2 5 7を備えており、 赤外線を使用して例えばべ ッ ト型ロボッ ト 2 04から送信されてきたぺッ ト特徴情報をイン夕 —ネッ ト 2 00に転送し、 また、 インターネッ ト 2 00を介して受 信されたぺッ ト特徴情報を赤外線を使用してペッ ト型ロボッ ト 2 0 4に転送する。
次に、 図 38には、 パーソナルコンピュ一夕 2 0 1とペッ ト型口 ボッ ト 2 0 4を無線を介して接続し、 さらにパーソナルコンビユー 夕 2 0 1及びィン夕ーネッ ト 2 0 0を介してぺッ ト特徴情報を送受 信可能とした場合の、 パーソナルコンピュータ 2 0 1 とぺッ ト型ロ ボッ ト 2 0 4の内部の主要構成を示す。 なお、 この図 3 8において、 図 3 6及び図 3 4と同じ構成には同一の指示符号を付して、 それら の説明は省略する。
この図 3 8の例によれば、 パーソナルコンピュータ 2 0 1は、 無 線送受信部 2 5 8を備えており、 無線を使用して例えばぺッ ト型ロ ボッ ト 2 0 4から送信されてきたぺッ ト特徴情報をィンターネッ ト 2 0 0に転送し、 また、 インターネッ ト 2 0 0を介して受信された ぺヅ ト特徴情報を無線を使用してぺッ 卜型ロボッ ト 2 0 4に転送す る。 具体的には、 ペッ ト型ロボッ ト 2 0 4及び仮想電子ぺッ ト装置 2 2 0の無線送受信部 2 4 8, 2 3 8は、 図 3 9に示すように、 B1 uetoothモジュール 2 4 8 , 2 3 8を用いることができる。 なお、 モ ジュール 2 4 8, 2 3 8は、 上述したように、 Bluetoothの無線イン 夕一フェースを採用して構成されたものである。
次に、 図 4 0には、 仮想電子ペッ ト装置とペッ ト型ロボッ トをシ リアルデ一タケ一ブルや赤外線、 無線等を介して接続し、 ペッ ト特 徴情報を転送するようにした場合の、 送受信処理の流れを示す。 な お、 この図 4 0の例は、 ペッ ト特徴情報を仮想電子ペッ ト装置から ぺッ ト型ロボッ トに転送する場合の流れを示している。
この図 4 0において、 接続要求は例えばぺッ ト型ロボッ 卜から行 われる。 すなわち、 ペッ ト型ロボッ トは、 先ず図中 T R 1で示すよ うに、 接続要求信号を仮想電子ペッ ト装置 (図 4 0では携帯電子べ ッ トとして表している) に送信する。 なお、 接続要求をぺッ ト型ロ ボッ トから行うことにしているのは、 例えば、 ペッ ト型ロボッ トと 仮想電子ぺッ ト装置の何れからも接続要求を行い得るようにすると、 ぺッ 卜型口ボッ トと仮想電子ぺッ ト装置の何れにも、 どちらが接続 要求を行うか否かを切り替えるためのスィ ツチ等を設けなければな らなくなり、 特にぺッ ト型ロボッ 卜にそのようなスィ ツチを設ける ことはデザィン上好ましくない (ペッ トとしてのロボッ トに様々な スィ ッチが設けられることは好ましくない) という理由からである が、 もちろん、 本発明はこれに限定されるものではなく、 仮想電子 ぺッ ト装置側から接続要求を行うこともでき、 ペッ ト型ロボッ トと 仮想電子ぺッ ト装置のどちら側からでも行える。
従って、 本実施の形態では、 例えばペッ ト型ロボッ トから接続要 求を行うように決めることで、 上記スィツチを不要にしている。
このとき、 ぺッ ト型ロボッ 卜から送信される接続要求信号には、 ぺッ ト型ロボッ ト或いは仮想電子ぺッ ト装置の何れがぺッ ト特徴情 報の所有権を持っているか否かを示すフラグ (言い換えれば、 何れ に魂が宿っているか否かを示すフラグ) である所有権フラグ (Own— f ig) が含まれている。 なお、 本実施の形態では、 所有権フラグの値 がゼロ (0wn_f lg= 0 ) であるときにペッ ト特徴情報の所有権を持た ないことを表し、 所有権フラグの値が 1 ( Own— f lg = l ) であるとき ぺッ ト特徴情報の所有権を持つことを表すことにする。 この図 4 0 の例では、 初期状態として、 ペッ ト型ロボッ トの所有権フラグの値 が (Own— f lg = 0 ) となっており、 仮想電子ペッ ト装置の所有権フラ グが (Own— f ig二 1 ) となっている。
仮想電子ペッ ト装置は、 この接続要求信号を受信すると、 自己の 所有権フラグ (Own_f lg= l ) と、 受信した接続要求信号に含まれて いる所有権フラグ (Own_flgニ 0 ) とを比較し、 受信した接続要求信 号の所有権フラグと自己の所有権フラグの値が異なるとき、 図中 T R 2で示すように、 接続許可信号をぺッ ト型ロボッ 卜に送信する。 ペッ ト型ロボッ トは、 上記接続許可信号を受信すると、 自己の所 有権フラグ (0wn_f lg= 0 ) と、 受信した接続許可信号に含まれてい る所有権フラグ (Own_flg二 1 ) とを比較し、 受信した接続許可信号 の所有権フラグと自己の所有権フラグの値が異なるとき、 図中 T R 3で示すように、 データ要求信号を仮想電子ぺッ ト装置に送信する。 仮想電子ペッ ト装置は、 データ要求信号を受信すると、 自己が格 納しているペッ ト特徴情報を、 図中 T R 4で示すように、 ペッ ト型 ロボッ 卜に送信する。
ぺッ ト型ロボッ トは、 必要な全てのぺッ ト特徴情報を受信すると、 図中 T R 5で示すように、 受信終了信号を仮想電子ぺッ ト装置に送 信し、 自己の所有権フラグの値を 1 ( 0wn_flg= 1 ) に変更する。 仮想電子ぺッ ト装置は、 ぺッ ト型ロボッ トからの受信終了信号を 受信すると、 自己の所有権フラグの値を 0 ( Own— f lg= 0 ) に変更す る。 以上で、 ぺッ 卜特徴情報を仮想電子ぺッ 卜装置からぺッ 卜型口 ボッ トに転送する場合の流れが完了する。 これにより、 個体情報記 憶部はぺッ ト型ロボッ 卜に移ったことになる。
次に、 図 4 1には、 ぺッ ト特徴情報をぺッ ト型ロボッ 卜から仮想 電子ぺッ ト装置に転送する場合の流れを示している。 この図 4 1の 例では、 初期状態として、 ペッ ト型ロボッ トの所有権フラグの値が ( 0wn_flg= 1 ) となっており、 仮想電子ペッ ト装置の所有権フラグ が (Own_flg= 0 ) となっている。
この図 4 1において、 先ず、 ペッ ト型ロボッ トは、 図中 T R 1 1 で示すように、 所有権フラグを含む接続要求信号を仮想電子ぺッ ト 装置 (図 4 1では携帯電子ぺッ トとして表している) に送信する。 このときの所有権フラグの値は 1
Figure imgf000075_0001
1 ) となっている。 仮想電子ペッ ト装置は、 この接続要求信号を受信すると、 自己の 所有権フラグ (0wn_flg= 0 ) と、 受信した接続要求信号に含まれて いる所有権フラグ (Own— flg= l ) とを比較し、 受信した接続要求信 号の所有権フラグと自己の所有権フラグの値が異なるとき、 図中 T R 1 2で示すように、 接続許可信号をぺッ ト型ロボッ トに送信する。 ペッ ト型ロボッ トは、 上記接続許可信号を受信すると、 自己の所 有権フラグ (Own— flg= l ) と、 受信した接続許可信号に含まれてい る所有権フラグ (Own— flg= 0 ) とを比較し、 受信した接続許可信号 の所有権フラグと自己の所有権フラグの値が異なるとき、 図中 T R 1 3で示すように、 自己が格納しているぺッ ト特徴情報を仮想電子 ぺッ ト装置に送信する。
仮想電子ぺッ ト装置は、 必要な全てのぺッ ト特徴情報を受信する と、 図中 TR 1 4で示すように、 受信終了信号をペッ ト型ロボッ ト に送信し、 自己の所有権フラグの値を 1 (Own_flg= l ) とする。 ぺッ ト型ロボッ トは、 仮想電子ぺッ ト装置からの受信終了信号を 受信すると、 自己の所有権フラグの値を 0 (Own_flg= 0 ) とする。 以上で、 ペッ ト特徴情報をぺッ ト型ロボッ トから仮想電子ぺッ ト装 置に転送する場合の流れが完了する。 これにより、 個体情報記憶部 は仮想電子ぺッ ト装置に移ったことになる。
次に、 図 4 2には、 ペッ ト型ロボッ トと仮想電子ペッ ト装置の所 有権フラグの値が同じである場合の通信の流れを示している。 この 図 4 2の例では、 初期状態として、 ぺッ ト型ロボッ 卜の所有権フラ グの値が (0wn_f lg = 0 ) となっており、 また仮想電子ペッ ト装置の 所有権フラグも (0wn_f lg二 0 ) となっている。 なお、 ペッ ト型ロボ ッ トと仮想電子ぺッ ト装置の所有権フラグの値が同じであるという ことは、 これらペッ ト型ロボッ 卜と仮想電子ぺッ ト装置が本来別々 の電子ぺッ トに対応していることを示しており、 ぺッ ト特徴情報の 送受信を行えない場合を示している。
この図 4 2において、 先ず、 ペッ ト型ロボッ トは、 図中 T R 2 1 で示すように、 所有権フラグを含む接続要求信号を仮想電子ぺッ ト 装置 (図 4 2では携帯電子ぺッ トとして表している。 ) に送信する。 このときの所有権フラグの値は 0 ( Own— f lg= 0 ) となっている。 仮想電子ペッ ト装置は、 この接続要求信号を受信すると、 自己の 所有権フラグ (0wn_f lg= 0 ) と、 受信した接続要求信号に含まれて いる所有権フラグ (0wn_flg= 0 ) とを比較する。
このとき、 仮想電子ペッ ト装置は、 受信した接続要求信号の所有 権フラグと自己の所有権フラグの値が同一であるため、 図中 T R 2 2で示すように、 受信終了信号をぺッ ト型ロボッ トに送信し、 処理 を終了する。 また、 ペッ ト型ロボッ トは、 上記受信終了信号を受信 すると、 処理を終了する。
次に、 図 4 3には、 上述した接続要求信号、 接続許可信号、 受信 終了信号のデータフォーマツ 卜の一例を示す。
接続要求信号は、 それぞれ 4バイ トで表される、 接続要求 I Dと、 接続時に使用するバイ ト数である通信バイ ト数と、 所有権フラグ ( Own— f ig) 及びその付加デ一夕とからなる。
接続許可信号は、 それぞれ 4バイ トで表される、 接続許可 I Dと、 通信バイ ト数と、 所有権フラグ (Ownjlg) 及びその付加デ一夕とか らなる。
受信終了信号は、 それぞれ 4バイ トで表される、 受信終了 I Dと、 通信バイ ト数と、 所有権フラグ (Own_f lg) 及びその付加データとか らなる。
上述した実施の形態では、 電子ぺッ トのぺッ ト特徴情報を直接、 或いはィン夕一ネッ トを介して送受信可能な例について説明したが、 本発明では、 電子ぺッ トに関する各種の情報をィン夕一ネッ ト 2 0 0を介して所定のサーバ 2 6 0にて管理するようなことも可能であ る。 以下、 このサーバをペッ ト共有サーバと呼ぶことにする。
図 4 4には、 イン夕一ネッ ト 2 0 0を介して仮想電子ぺッ ト装置 2 0 2やパーソナルコンピュー夕 2 0 1、 ペッ ト型ロボッ ト 2 0 4, 2 0 4のぺッ ト特徴情報等を、 ぺッ ト共有サーバ 2 6 0で管理する ネッ トワークシステムの概念的な構成を示す。
このネッ トワークシステムの場合、 ペッ ト共有サーバ 2 6 0には、 ぺッ ト特徴情報を格納するぺッ ト特徴情報格納部 2 6 2と、 ぺッ ト 共有サーバにおいて管理する電子ぺッ 卜の管理情報 (共有サーバべ ッ ト管理情報) 格納部 2 6 3とを有する、 データ格納部 2 6 1が備 えられている。
図 4 5には、 インターネッ ト 2 0 0を介してぺッ ト共有サーバ 2 6 0と仮想電子べッ ト装置 2 2 0、 ペッ ト型ロボッ ト 2 0 4が接続 された場合の、 仮想電子ぺッ ト装置 2 2 0とペッ ト型ロボッ ト 2 0 4の内部の主要構成を示す。 なお、 この図 4 5において、 前述した 各図と同じ構成には同一の指示符号を付して、 それらの説明は省略 する。
この図 4 5の例では、 仮想電子べッ ト装置 2 2 0とペッ ト型ロボ ッ ト 2 0 4が、 直接ィン夕ーネッ ト 2 0 0に接続可能となされてい るため、 それぞれモデム 2 3 9 , 2 4 9を内蔵している。 これらモ デム 2 3 9 , 2 4 9を介することで、 インターネッ ト 2 0 0を介し てぺッ ト共有サーバ 2 6 0と接続可能となり、 ぺッ ト特徴情報を含 む各種のデ一夕をぺッ ト共有サーバ 2 6 0にて管理可能となる。 図 4 4や図 4 5のように、 インターネッ ト 2 0 0を介してぺッ ト 共有サーバ 2 6 0にて電子ぺッ 卜のぺッ ト特徴情報を管理可能とす ることにより、 例えば図 4 6に示すように、 例えば出張等によって 自宅を空ける場合に、 電子ぺッ 卜のぺッ ト特徴情報をぺッ ト共有サ ーバに管理させる、 すなわち預けて、 出張先で当該サーバからぺッ ト特徴情報を取り出して電子ぺッ トと遊ぶ等のことが可能となる。 すなわち、 この図 4 6の例において、 出張前の自宅では、 先ず、 図中 Aに記載するように、 ぺッ ト型ロボッ トをイン夕一ネッ 卜に接 続してペッ ト共有サーバにアクセスする。 このとき、 ペッ ト型ロボ ッ トの所有権フラグの値は 1 ( Own— f lg = l ) となっている。 ペッ ト 型ロボッ トは、 当該所有権フラグの値が 1であるとき、 ペッ ト特徴 情報をサーバに預けることを依頼する 「お預かり」 を自動的に選択 する。 これにより、 当該ペッ ト型ロボッ トからは、 ペッ ト特徴情報 がサーバにアップロードされる。 なお、 ペッ ト共有サーバに預けら れた個々の電子ぺッ トを区別する必要があるため、 当該アップロー ドの際にはぺッ ト型ロボッ トの: 0 Mに記憶されている固有の I D とパスワードも同時にサーバに転送される。
次に、 出張先では、 図中 Bに記載するように、 例えば携帯端末 (携帯可能な仮想電子ぺッ ト装置やパーソナルコンピュータ) をィ ン夕一ネッ 卜に接続してぺッ ト共有サーバにアクセスする。 このと き、 携帯端末の映像表示部 (携帯可能な仮想電子ペッ ト装置の映像 表示部やパーソナルコンピュータのモニタ) には、 複数のメニュー 項目が表示される。 このメニュー項目には、 「お預かり」 や 「お引 き取り」 等の項目があり、 この場合は 「お引き取り」 を選択するこ とになる。 なお、 このとき、 自己が預けた電子ペッ トを引き取るた めには、 他の電子ぺッ トを間違えて引き取るなどのことを防止する ために、 I Dとパスワードを入力する。 その後、 携帯端末には、 ぺ ッ ト共有サーバに預けられている電子ぺッ トのぺッ ト特徴情報がダ ゥンロードされる。 これにより、 ユーザは、 出張先でも携帯端末上 の電子ぺッ トを飼育したり、 電子ぺッ 卜と遊んだりすることが可能 となる。
次に、 出張先から戻る場合には、 図中 Cに記載するように、 例え ば携帯端末をィン夕ーネッ トに接続してぺッ ト共有サーバにァクセ スする。 これにより、 携帯端末の映像表示部には、 複数のメニュー 項目が表示される。 このメニュー項目中の 「お預かり」 を選択し、 また、 I Dとパスワードを入力すると、 当該携帯端末からは、 ぺッ ト特徴情報がサーバにアツプロ一ドされる。
その後、 主張先から自宅に戻った後は、 図中 Dに記載するように、 ぺッ ト型ロボッ トをィン夕一ネヅ トに接続してぺッ ト共有サーバに アクセスする。 このとき、 ペッ ト型ロボッ トの所有権フラグの値は 0 ( Own_flg= 0 ) となっている。 ペッ ト型ロボッ トは、 当該所有権 フラグの値 0であるとき、 ぺッ ト特徴情報をサーバから引き取るこ とを依頼する 「お引き取り」 を自動的に選択する。 これにより、 ぺ ッ ト型ロボッ 卜には、 サーバからペッ ト特徴情報がダウンロードさ れる。 上述した第 2の実施の形態では、 電子ぺッ トをそれぞれ仮想電子 ぺッ ト装置ゃぺッ ト型ロボッ ト、 パーソナルコンピュータ上の電子 ぺッ トとして飼育等する例を挙げたが、 本発明の第 3の実施の形態 として、 例えば図 4 7に示すように、 パーソナルコンピュータ上に おいてぺッ ト型ロボッ トを電子ぺッ ト 2 6 3 として仮想世界 2 6 1 で遊ばせたり、 また、 ユーザ自身が仮想世界 2 6 1にアバ夕 (avat ar) 2 6 2 として入り、 自己の電子ペッ トと遊んだりすることも可 能である。 アバ夕とは、 イン ド神話に登場する神の化身をいう。 こ のアバ夕は、 2次元や 3次元のコンピュー夕グラフイ ツクスで描か れた仮想世界のなかでは、 ユーザの代理のキャラクタとなる。
さらに、 本実施の形態によれば、 ユーザ自身のアバ夕 2 6 2及び 電子ぺッ ト 2 6 3を、 他者のアバ夕 2 6 4及び電子ぺッ ト 2 6 5が 存在する、 ネッ 卜ワーク上に構築された仮想世界 2 6 0上に入れ、 相互にコミュニケーションを行うことも可能である。
なお、 図 4 5に示した例では、 仮想電子ペッ ト装置 2 2 0 とぺッ ト型ロボッ ト 2 0 4が、 モデム 2 3 9 , 2 4 9によってイン夕一ネ ッ ト 2 0 0に接続可能となされているが、 インターネッ ト 2 0 0へ の接続手段はこれに限定されるものではない。 例えば、 無線手段と される Bluetoothモジュールにより接続することもできる。 この場合、 図 4 8に示すように、 ぺッ ト型ロボッ ト 2 0 4及び仮想電子ぺッ ト 装置 2 2 0は、 B luetoothモジュール 2 4 9 a , 2 3 9 aを無線送受 信部として備える。 これに対応して、 イン夕一ネッ ト (例えば、 公 衆電話回線) に B luetoothモジュール 2 4 9 b , 2 3 9 bが接続され、 ペッ ト型ロボッ ト 2 0 4及び仮想電子ぺッ ト装置 2 2 0の B luetoot hモジュール 2 4 9 a , 2 3 9 aとの間でデータの送受信がなされる。 ここで、 各 Bluetoothモジュール 2 3 9 a , 249 a, 2 3 9 b, 2 4 9 bは、 上述したように、 Bluetoothの無線インターフェースを採 用して構成されたものである。
以下、 世界的規模で構築されたコンピュータネッ トワークである インターネッ トを介し、 様々な情報を提供する WWW (world wide web) の枠組みを利用し、 3次元的な情報を統一的に扱うことがで きる言己述言語である V R M L (virtual reality modeling languag e) を使用して、 第 3の実施の形態のように 3次元の仮想空間上で電 子ぺッ トを飼育等すること実現するための構成及び動作について説 明する。
先ず、 本発明の第 3の実施の形態の説明に先立ち、 VRMLにつ いて簡単に説明する。
VRMLは、 3次元空間の記述や 3次元グラフィ ヅクスで描画さ れたオブジェク トに対してハイパーテキス トのリンクの設定を可能 とし、 これらのリンクをたどりながら WWWサーバを次々とァクセ スできるようにした 3次元グラフィ ックス記述言語であり、 また、 この VRMLで記述された 3次元空間を表示するために VR M Lブ ラウザが開発されている。 なお、 この VRMLの詳細は、 例えば、 「 VRMLを知る : 3次元電脳空間の構築とブラウジング 〔マーク • ぺッシ著, 松田晃ー · 蒲地輝尚 ·竹内彰ー · 本田康晃 ·暦本純一 •石川真之 ·宫下健 ·原和弘訳, 1 9 9 6年 3月 2 5日初版発行, プレンティスホール出版 ISBN4- 931356- 37- 0〕 (原著 ; VRML: Brows ing & Building Cyberspace, Mark Pesce, 1995 New Readers Publi shing ISBN 1-56205-498-8) ) 」 、 及び 「VRMLの最新動向と C y b e r P a s s a g e 〔松田晃ー · 本田康晃著、 b i t (共立出 版) /1996 Vol.28 No.7 pp29 乃至 pp36, No.8 pp57 乃至 pp65, No. 9 pp29 乃至 pp36, No.10 pp49乃至 pp58〕 」 等の文献に記載されてい る。 また、 August 4, 1996における The Virtual Reality Modeli ng Language Version 2.0, IS0/IEC CD 14772の公式かつ完全な仕 様書は、 http://webspace. sgi . com/moving-worlds/spec/ index.htm 1で公開されており、 その日本語版は、 http:〃 www.webcity.co. jp/ info/andoh/VRML/vrml2.0/spec- jp/index.htmlで公開されている。 さらに、 VRML 2. 0用ブラウザ及び共有サーバ用ソフ トウェア としては、 例えば、 本出願人であるソニー株式会社が 「Co匪 unity Place Browser / Bureau (商標)」 として開発し、 製品化しており、 その/?版 (試供版) を、 イン夕一ネッ ト上のホームページ http:〃 V s.sony co.jpからダウン口一ド可能としている。
このような VRML 2. 0を用いて 3次元的な仮想空間を構築し ようとする場合、 まず、 VRMLにより仮想空間内の物体 (モデ ル) の形、 動き及び位置等を示す図形データの作成 (モデル作成) 、 ユーザが画面表示された仮想空間内のモデルを、 例えばマウスでク リ ックしてポインティ ングした場合にィベントを発生させるスイ ツ チ (センサ) のモデルへの付加 (センサ付加) 、 センサへのポイン ティ ングに応じて発生するィベン トを実現するスクリプトのプログ ラミング (スクリプト作成) 、 センサに対する操作とスク リブトの 起動等、 図形データ及びスク リプト (以下、 図形デ一夕、 スクリブ ト及び VRM Lに規定されているライ ト等のコモンノード等を総称 してノードとも記す) の間の対応付け (ルーティ ング) などによつ て所望のコンテンッを表現する VRMLフアイルを作成する。 例え ば、 http: //www. ses.co. jp/SES/STAFF/kan/howto/howtol · htmlには、 VRML 2. 0の書き方、 サンプルデ一夕などが解説されている。 VRML 2. 0のデータはノー ド (Node) とフィールド (Field) で構成されている。 フィールドはノードに変数を渡し、 ノードのパ ラメ一夕を指定する。 フィール ドは省略可能であり、 フィール ドを 省略した場合には、 デフォルト値が用いられる。 また、 フィールド には単一の値しか持たない 「単一値フィールド (SF) 」 と複数の値 を持つ 「複値フィール ド (MF) 」 がある。 ノー ドの詳しい機能ゃフ ィールドなどは 「Appendixl: VRML2.0 Node Listj を参照されたい。 ここで、 VRML 2. 0には、 VRM L仮想空間内における自律 的な動き (Behavior) を実現するためのメカニズムが規定されてい る。 この自律的な動き (Behavior) のメカニズムの詳細な説明につ レヽては、 http://webspace.sgi. com/moving-wor Ids/spec/part 1 /con cepts.html及び、 その日本語版であ ¾http://wwv.webcity. co.jp/ i nf o/andoh/VRML/VilML2.0/spec- jp/partl/concepts · htmlで公開され ている、 August 4, 1996における The Virtual Reality Modeling L anguage Version 2.0, ISO/IEC CD 14772の仕様書、 4. 概念の節に開 示されている。 この節には、 VRML仕様書を利用するにあたりキ 一となる概念が記述されている。 ノ一ドをシーングラフに結合する 方法、 ノードがイベン トを生成したり受け取ったりする方法、 プロ トタイプによるノー ドタイプの作成方法、 V R M Lにノー ドタイプ を追加して外部から使用できるようにエクスポートする方法、 VR MLファイルにプログラムとして動作するスクリプトを組み込む方 法など、 様々なノ一ドに関する一般的な項目が記載されている。 図 49には第 3の実施の形態のネッ トワークシステムの、 具体的 な構成図を示す。 図 4 9において、 図中の指示符号 3 0 1, 30 2 , 3 0 3にて示 す構成要素は、 VRMLブラウザ及び WWWブラウザがィンス トー ルされ、 これらが動作している前述したパーソナルコンピュータで あるクライアン ト; P Cであり、 インターネッ ト接続サービスプロバ イダ 3 04, 3 0 5, 3 0 6を介してイ ン夕一ネッ ト 3 0 7と接続 されている。
インターネッ ト 3 0 7とル一夕 3 0 8を介して接続された LAN (Local Area Network) 3 0 9には、 WWWサーバ 3 1 0、 WL S (World Location Server) 3 1 1、 ぺッ ト共有サーバ 3 1 2、 AO サーバ 3 1 3 , 3 1 4、 メールサーバ 3 1 5、 及びコミュニケ一シ ヨンサーバ 3 1 6が接続されている。 これらの各サーバ 3 1 0乃至 3 1 6には、 ハ一ドディスク (HDD) 3 1 0 a, 3 1 0 b, 3 1 1 a乃至 3 1 6 aが、 各々設けられている。
コミュニケ一ションサーバ 3 1 6は、 公衆電話回線網 3 1 7を介 して電話機 3 1 8やファクシミ リ 3 1 9と接続され、 さらに、 P H S (Personal Handyphone System) サービスプロバイダ 3 2 0を介 して P H S端末 3 2 3に無線接続され、 ボケッ トベルサービスプロ バイダ 3 2 1を介してポケッ トベル端末 3 24に無線接続されてい る。
図 5 0は図 49のクライアン ト P C 3 0 1のハードウェア構成を 示すブロック図である。
図 5 0において、 当該クライアン ト P C 3 0 1は、 各部を制御す る C P U 3 3 0、 VRML 2. 0ファイルや J av a (商標) によ る仮想生命オブジェク トのスク リプトプログラム等からなる V R M Lコンテンッ及びユーザデ一夕が格納された HD D 3 3 1、 C R— ROMディスク 3 3 3に格納された VRM Lコンテンッを読み取る CD—R OMドライブ 3 3 2、 B I O S (Basic Input Output Sys terns) 等が格納された R OM 3 34、 マイ クロフォン 3 3 6と左右 のスピーカ 3 3 7, 3 3 8が接続されたサゥン ド処理回路 3 3 5、 イン夕一ネッ ト 3 0 7に接続するためのモデム 3 3 9、 マウス 34 1とキ一ボード 34 2が接続された I /0 (入出力) インターフエ イス 34 0、 VRAM 344が内蔵されたグラフィ ックス処理回路 34 3、 CR Tモニタ 34 5、 RAM 34 6等からなる。 上記 RA M 34 6には、 実行時に、 O S (例えばマイクロソフ ト社の Window sなど) 上で動作する WWWブラウザ (例えば、 Netscape Navigato r (商標) ) と、 インタプリタ (例えば Javaイン夕プリ夕) と、 VR ML 2. 0ブラウザ (例えばソニー株式会社によって開発されたで ある Co匪 unity Place Browserなど) が読み込まれて、 C PU 33 0 によって実行される状態となっている。
VRML 2. 0ブラウザには、 VRMLの構文解釈用ライブラリ (パ一サ) (例えば米国シリコングラフ ィクス社によって開発され、 無償公開されている QvLibなど) と、 ソフ トゥヱァ . レンダラ (例え ば英国 Criterion Software Ltd.のである RenderWare等) が実装され ている。
そして、 このクライアン ト P Cの VRML 2. ◦ブラウザは、 図 50に示すように、 WWWブラウザ (例えば、 Netscape Navigato r) との間において、 例えば N CAP I (Netscape Client Applica tion Programing Interface, 商標) に基づいて各種データの授受を 行う。
WWWブラウザは、 インターネッ 卜 3 0 7を介して WWWサーバ 3 1 0より H TMLファイルと VRMLコンテンツ (VRMLファ ィルとスクリプトプログラムとを含む) の供給を受けると、 これら を口一カルの H D D 33 1にそれぞれ記憶させる。 WWWブラウザ は、 このうちの H TMLファイルを処理してテキス トゃ画像を CR Tモニタに表示する一方、 VRMLブラウザは VRMLファイルを 処理して 3次元仮想空間を C R Tモニタに表示するとともに、 イン 夕プリ夕によるスク リプトプログラムの処理結果に応じて、 3次元 仮想空間内のォブジェク トの挙動を変化させる。
なお、 図示は省略するが、 他のクライアン ト P C 3 0 2や 3 0 3 も、 クライアン ト P C 3 0 1と同様に構成されている。
次に、 図 4 9に示したシステムの一動作例について説明する。 先ず、 実際に VRMLコンテンツをィ ン夕ーネッ ト経由でダウン ロードしてから、 一つ仮想空間を複数のユーザで共有するマルチュ 一ザ環境とするまでの手順を図 5 1乃至図 5 3を参照して説明する。 図 5 1において、 図中 L 1で示すように、 最初に、 WWWブラウ ザを用いて、 VRMLコンテンツを提供している例えばゥェプサイ 卜のホームページを閲覧する。 次に、 図中 L 2で示すように、 クラ イアン ト P C 3 0 1 とクライアン ト P C 3 0 2のユーザは、 VRM L 2. 0ファイルと、 VRML空間内での自律的な動き (Behavio r) を実現するためのスクリプトプログラム (例えば Javaによるスク リプトプログラム) とからなる V R M Lコンテンツを、 それぞれダ ゥンロードする。 もちろん、 CD— R OMディスク 3 3 3で提供さ れる VRMLコンテンツを CD— R OMドライブ 3 3 2で読み込ん でもよい。
次に、 図 5 2に示すように、 クライアン ト P C 3 0 1及びクライ アン ト P C 3 0 2は、 それぞれにダウンロードされ、 一旦ローカル の H D D 3 3 1に格納された VRM L 2. 0ファイルを、 VRML 2. 0ブラウザが解釈 ' 実行し、 さらに図中 L 3で示すように、 V S C P (Virtual Society Server Client Protocol) に基づいて、 WL S 3 1 1に対してぺッ ト共有サーバ 3 1 2の UR Lを問い合わ せる。 このとき図中 L 4で示すように、 WL S 3 1 1は HD D 3 1 1 aに格納された共有サーバ UR L管理テーブルを参照して、 クラ イアン ト P C 3 0 1及びクライアン ト P C 3 0 2に対して、 ペッ ト 共有サーバ 3 1 2の UR Lを通知する。
この UR Lを用いて、 図 5 3に示すように、 クライアン ト P C 3 0 1 とクイアン ト P C 302が、 ペッ ト共有サーバ 3 1 2に接続す る。 その結果、 図中 L 5で示すように、 このぺッ ト共有サーバ 3 1 2を介して共有 3 D ( 3次元) ォブジヱク 卜の位置や動きなどに関 する共有メッセージの送信が行われ、 図中 L 6で示すように、 その 転送が行われ、 マルチユーザ環境が実現される。
このようにして実現されたマルチユーザ環境上において、 ぺッ ト 共有サーバ 3 1 2は、 クライアン ト P C 3 0 1すなわちユーザから の口グインがなされると、 クライアン ト P C 3 0 1に対して、 仮想 共有世界のデータを送信し、 また、 A 0サーバ 3 1 3内の仮想生命 オブジェク トのデ一夕を転送する。
クライアン ト P C 3 0 1は、 仮想共有世界の全体のデ一夕と当該 仮想共有世界内のオブジェク 卜のデータを受信すると、 それらデ一 夕を内部ハ一ドディスクに記録或いは内部メモリに記憶し、 次いで、 当該記録したデ一夕に基づいてモニタ画面上に仮想共有世界を表示 する。 ここで、 クライアン ト P C 3 0 1において、 仮想共有世界内に自 己のアバ夕 2 6 2と電子ぺッ ト 2 6 3を入れる場合には、 例えばべ ッ ト共有サーバ 3 1 2を介してコールメ ッセージを AOサーバ 3 1 3へ送信する。 AOサーバ 3 1 3では、 そのアクセスィベン 卜に基 づいてパラメ一夕更新処理が実行される。
また、 他のアクセスイベン トが実行されるとその操作メッセージ が A 0サーバ 3 1 3へ送信され、 操作イベン トが発生する毎に、 パ ラメ一夕が更新される。
例えば、 このパラメ一夕は、 更新される毎に、 ペッ ト共有サーバ 3 1 2のマルチキャス ト処理により、 クライアン ト P C 3 0 1 と、 仮想空間を共有しているその他のクライアン ト P C 3 0 2へ転送さ れる。
クライアント P C 30 1では、 返送されてきたパラメ一夕に基づ いて、 電子ぺッ 卜の自律的な挙動を制御するための処理手順が記述 されたスクリプトプログラムが実行され、 V R M Lファイルの電子 ペッ トを表現するための 3次元ォブジェク トを構成する各ノ一ドの フィールドの値が変更され、 この変更されたフィールドの値が反映 された電子ぺッ トがレンダリングされ、 クライアン ト P C 3 0 1の 映像表示部の画面上の VRM Lブラウザのメインウィン ドウ上に表 示される。
このクライアン ト P C 30 1 と同じ処理が、 仮想空間を共有して いるその他のクライアン ト P C 3 0 2においても実行され、 これに より電子ぺッ 卜の動き等に伴って変更されたフィールドの値が反映 された電子ぺッ 卜がレンダリングされ、 他のクライアン ト P C 3 0 2の映像表示部上の VRMLブラウザのメインウィン ドウ上にも表 示されることになる。
なお、 以上の接続手順の詳しい説明については、 特開平 9 _ 8 1 7 8 1号公報を参照されたい。
本発明実施の形態において、 上記処理を実行するコンピュータプ ログラムをユーザに提供する情報提供媒体には、 磁気ディスク、 C D _ R◦ Mなどの情報記録媒体の他、 インタ一ネッ ト、 ディジタル 衛星などのネッ トワークによる伝送媒体も含まれる。

Claims

請求の範囲
1 . 入力情報に応じて変化し、 電子ペッ トを行動させるための情報 となる電子ぺッ 卜の内部状態を送受信可能な送受信手段と、 画像表 示手段とを有し、 上記電子ぺッ トを上記画像表示手段にて具現化す るための処理を行う情報処理装置と、
入力情報に応じて変化し、 上記電子ぺッ トを行動させるための倩 報となる電子ぺッ トの内部状態を送受信可能な送受信手段と、 実世 界にて動作する動作部とを有し、 上記動作部を制御して、 上記電子 ペッ トを実世界の存在として具現化するための処理を行うロボッ ト と
を備えたことを特徴とする電子ぺッ トシステム。
2 . 上記情報処理装置及び上記ロボッ トは、 上記内部状態が記憶さ れる記憶手段を備え、
上記記憶手段に記憶される内部状態が上記送受信手段により送受 信されること
を特徴とする請求の範囲第 1項記載の電子ぺッ トシステム。
3 . 上記内部状態は、 少なく とも感情の状態又は本能の状態の何れ か一の状態を示すこと
を特徴とする請求の範囲第 1項記載の電子ぺッ トシステム。
4 . 上記入力情報が、 少なく とも周囲の情報又は内部の情報の何れ か一の情報であること
を特徴とする請求の範囲第 1項記載の電子ぺッ トシステム。
5 . 上記内部状態は、 パラメ一夕表現される内部状態パラメ一夕で あり、 上記入力情報に応じて上記内部状態パラメ一夕が更新されること を特徴とする請求の範囲第 1項記載の電子ぺッ トシステム。
6 . 上記内部状態パラメ一夕が閾値に達したときに、 所定の行動を 選択して、 当該行動を出現させること
を特徴とする請求の範囲第 5項記載の電子ぺッ トシステム。
7 . 上記内部状態パラメ一夕が閾値に達したときに、 複数の行動を 選択して、 そのうちの一の行動を出現させること
を特徴とする請求の範囲第 6項記載の電子ぺッ トシステム。
8 . 上記ロボッ トは、 現在の姿勢から、 上記動作部が遷移可能な姿 勢又は動作を経由して、 内部状態に基づいた行動を出現させること を特徴とする請求の範囲第 1項記載の電子ぺッ 卜システム。
9 . 入力情報に応じて変化し、 電子ペッ トを行動させるための情報 となる電子ぺッ トの内部状態を無線にて送受信可能な無線送受信手 段と、 画像表示手段とを有し、 上記電子ペッ トを上記画像表示手段 にて具現化するための処理を行う情報処理装置と、
入力情報に応じて変化し、 上記電子ぺッ トを行動させるための情 報となる電子ぺッ トの内部状態を無線にて送受信可能な無線送受信 手段と、 実世界にて動作する動作部とを有し、 上記動作部を制御し て、 上記電子ぺッ トを実世界の存在として具現化するための処理を 行うロボッ 卜と
を備えたことを特徴とする電子ぺッ トシステム。
1 0 . 上記情報処理装置及び上記ロボッ 卜の無線送受信手段は、 B1 uetoothの無線ィン夕ーフエースを採用して構成されていること を特徴とする請求の範囲第 9記載の電子ぺッ トシステム。
1 1 . 上記情報処理装置及び上記ロボッ トは、 上記内部状態が記憶 される記憶手段を備え、
上記記憶手段に記憶される内部状態が上記送受信手段により送受 信されること
を特徴とする請求の範囲第 9項記載の電子ぺッ トシステム。
1 2 . 上記内部状態は、 少なく とも感情の状態又は本能の状態の何 れか一の状態を示すこと
を特徴とする請求の範囲第 9項記載の電子べッ トシステム。
1 3 . 上記入力情報が、 少なく とも周囲の情報又は内部の情報の何 れか一の情報であること
を特徴とする請求の範囲第 9項記載の電子べッ トシステム。
1 4 . 上記内部状態は、 パラメ一夕表現される内部状態パラメ一夕 であり、
上記入力情報に応じて上記内部状態パラメ一夕が更新されること を特徴とする請求の範囲第 9項記載の電子ペッ トシステム。
1 5 . 上記内部状態パラメ一夕が閾値に達したときに、 所定の行動 を選択して、 当該行動を出現させること
を特徴とする請求の範囲第 1 4項記載の電子ぺッ トシステム。
1 6 . 上記内部状態パラメ一夕が閾値に達したときに、 複数の行動 を選択して、 そのうちの一の行動を出現させること
を特徴とする請求の範囲第 1 5項記載の電子ぺッ トシステム。
1 7 . 上記ロボッ トは、 現在の姿勢から、 上記動作部が遷移可能な 姿勢又は動作を経由して、 内部状態に基づいた行動を出現させるこ と
を特徴とする請求の範囲第 9項記載の電子ぺッ 卜システム。
1 8 . 入力情報に応じて変化し、 生命体ォブジヱク トを行動させる ための情報となる生命体ォブジェク 卜の内部状態と、 当該生命体ォ ブジェク トの識別情報とを送受信可能な送受信手段を有し、 上記生 命体オブジェク トを具現化させるための 1以上の具現化装置と、 上記生命体オブジェク 卜の内部状態と当該生命体オブジェク 卜の 識別情報とを管理する管理手段と、 少なく とも上記内部状態及び上 記識別情報を送受信可能な送受信手段とを有するサーバ装置とから なり、
ネッ トワークを介して上記具現化装置と上記サーバ装置の間を接 ること
を特徴とするネッ トワークシステム。
1 9 . 上記具現化装置の内部状態は、 記憶手段に記憶され、 上記記憶手段に記憶される内部状態が上記送受信手段により送受 信されること
を特徴とする請求の範囲第 1 8項記載のネッ トワークシステム。
2 0 . 上記具現化装置は、 上記生命体オブジェク トを画像表示手段 にて具現化するための処理を行う情報処理装置、 又は動作部を制御 して、 上記生命体ォブジェク 卜を実世界の存在として具現化するた めの処理を行うロボッ トであること
を特徴とする請求の範囲第 1 8項記載のネッ トワークシステム。
2 1 . 上記ロボッ トは、 現在の姿勢から遷移可能な姿勢又は動作を 経由して、 内部状態に基づいた行動を出現させること
を特徴とする請求の範囲第 2 0項記載のネッ トワークシステム。
2 2 . 上記内部状態は、 少なく とも感情の状態又は本能の状態の何 れか一の状態を示すこと
を特徴とする請求の範囲第 1 8項記載のネッ トワークシステム。
2 3 . 上記入力情報が、 少なく とも周囲の情報又は内部の情報の何 れか一の情報であること
を特徴とする請求の範囲第 1 8項記載のネッ トワークシステム。
2 4 . 上記内部状態は、 パラメ一夕表現される内部状態パラメ一夕 であり、
上記入力情報に応じて上記内部状態パラメ一夕が更新され、 更新 された内部状態パラメ一夕が上記記憶手段に記憶されること
を特徴とする請求の範囲第 1 8項記載のネッ トワークシステム。
2 5 . 上記内部状態パラメ一夕が閾値に達したときに、 所定の行動 を選択して、 当該行動を出現させること
を特徴とする請求の範囲第 2 4項記載のネッ トワークシステム。
2 6 . 上記内部状態パラメ一夕が閾値に達したときに、 複数の行動 を選択して、 そのうちの一の行動を出現させること
を特徴とする請求の範囲第 2 5項記載のネッ トワークシステム。
2 7 . 入力情報に応じて変化し、 生命体ォブジヱク トを行動させる ための情報となる生命体ォブジェク 卜の内部状態を送受信可能な送 受信手段を有し、 上記生命体ォブジェク トを具現化させるための具 現化装置と、
上記生命体オブジェク トの内部状態を送受信可能な送受信手段と、 上記生命体オブジェク 卜の内部状態に基づいて、 仮想世界で活動す る上記生命体オブジェク トの行動を制御し、 少なく とも上記仮想世 界と上記生命体オブジェク トを表示するための処理を行う情報処理 装置とからなり、
ネッ トワークを介して上記具現化装置と情報処理装置の間で情報 の送受信がなされること を特徴とするネッ トワークシステム。
2 8 . 上記具現化装置は、 上記生命体オブジェク トが記憶される記 憶手段を備え、
上記記憶手段に記憶される内部状態が上記送受信手段により送受 信されること
を特徴とする請求の範囲第 2 7項記載のネッ トワークシステム。
2 9 . 上記具現化装置及び上記ネッ トワークは、 B luetoothの無線ィ ン夕ーフェースを採用した無線送受信手段をそれぞれ備えて、 互い に無線接続されて情報の送受信を行うこと
を特徴とする請求の範囲第 2 7項記載のネッ トワークシステム。
3 0 . 上記具現化装置は、 上記生命体オブジェク トを画像表示手段 にて具現化するための処理を行う情報処理装置、 又は動作部を制御 して、 上記生命体ォブジェク トを実世界の存在として具現化するた めの処理を行うロボッ トであること
を特徴とする請求の範囲第 2 7項記載のネッ トワークシステム。
3 1 . 上記ロボッ トは、 現在の姿勢から遷移可能な姿勢又は動作を 経由して、 内部状態に基づいた行動を出現させること
を特徴とする請求の範囲第 3 0項記載のネッ トワークシステム。
3 2 . 上記内部状態は、 少なく とも感情の状態又は本能の状態の何 れか一の状態を示すこと
を特徴とする請求の範囲第 2 7項記載のネッ トワークシステム。
3 3 . 上記入力情報が、 少なく とも周囲の情報又は内部の情報の何 れか一の情報であること
を特徴とする請求の範囲第 2 7項記載のネッ トワークシステム。
3 4 . 上記内部状態は、 パラメ一夕表現される内部状態パラメ一夕 であり、
上記入力情報に応じて上記内部状態パラメ一夕が更新されること を特徴とする請求の範囲第 2 7項記載のネッ トワークシステム。
3 5 . 上記内部状態パラメ一夕が閾値に達したときに、 所定の行動 を選択して、 当該行動を出現させること
を特徴とする請求の範囲第 3 4項記載のネッ トワークシステム。
3 6 . 上記内部状態パラメ一夕が閾値に達したときに、 複数の行動 を選択して、 そのうちの一の行動を出現させること
を特徴とする請求の範囲第 3 5項記載のネッ トワークシステム。
3 7 . 入力情報に応じて変化し、 生命体オブジェク トを行動させる ための情報となる生命体オブジェク 卜の内部状態を記憶し、 動作部 を制御して、 生命体ォブジェク トを実世界の存在として具現化する ための処理を行うロボッ 卜であって、
上記ロボッ 卜の生命体ォブジヱク 卜の内部状態に基づいて、 仮想 世界で活動する上記生命体オブジェク 卜の行動を制御し、 少なく と も上記仮想世界と上記生命体オブジェク 卜を表示するための処理を 行う情報処理装置に対して、 少なく とも上記内部状態を転送するこ と
を特徴とするロボッ ト。
3 8 . 上記内部状態が記憶される記憶手段を備え、
上記記憶手段に記憶された内部状態を転送すること
を特徴とする請求の範囲第 3 7項記載のロボッ ト。
3 9 . 上記内部状態は、 少なく とも感情の状態又は本能の状態の何 れか一の状態を示すこと
を特徴とする請求の範囲第 3 7項記載のロボッ ト。
4 0 . 上記入力情報が、 少なく とも周囲の情報又は内部の情報の何 れか一の情報であること
を特徴とする請求の範囲第 3 7項記載のロボッ ト。
4 1 . 上記内部状態は、 パラメ一夕表現される内部状態パラメ一夕 であり、
上記入力情報に応じて上記内部状態パラメ一夕が更新され、 更新 された内部状態パラメ一夕が記憶手段に記憶されること
を特徴とする請求の範囲第 3 7項記載のロボッ ト。
4 2 . 上記内部状態パラメ一夕が閾値に達したときに、 所定の行動 を選択して、 当該行動を出現させること
を特徴とする請求の範囲第 4 1項記載のロボッ ト。
4 3 . 上記内部状態パラメ一夕が閾値に達したときに、 複数の行動 を選択して、 そのうちの一の行動を出現させること
を特徴とする請求の範囲第 4 2項記載のロボッ ト。
4 4 . 現在の姿勢から、 上記動作部が遷移可能な姿勢又は動作を経 由して、 内部状態に基づいた行動を出現させること
を特徴とする請求の範囲第 3 7項記載のロボッ ト。
4 5 . 情報処理装置にて使用可能なデータを記憶し、 上記情報処理 装置に設けられたスロッ 卜へ着脱可能な記憶媒体において、
上記情報処理装置のスロッ 卜に装填された時に、 正確な装填位置 を示すための指示手段を有する
ことを特徴とする記憶媒体。
4 6 . 入力情報に応じて変化し、 生命体オブジェク トを行動させる ための情報となる生命体ォブジヱク 卜の内部状態を記憶し、
上記生命体オブジェク 卜の内部状態に基づいて、 上記生命体ォブ ジェク トを具現化させる具現化装置としての上記情報処理装置に装 填されること
を特徴とする請求の範囲第 4 5項記載の記憶媒体。
4 7 . 上記具現化装置が、 上記生命体オブジェク トを電子ペッ トと して画像表示手段にて具現化するための処理を行う情報処理装置、 又は動作部を制御して、 上記生命体オブジェク トを電子ぺッ トとし て実世界の存在として具現化するための処理を行うロボッ トである こと
を特徴とする請求の範囲第 4 6項記載の記憶媒体。
PCT/JP2000/002856 1999-04-30 2000-04-28 Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees WO2000066239A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020007015057A KR20010053322A (ko) 1999-04-30 2000-04-28 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체
EP00922918A EP1092458A1 (en) 1999-04-30 2000-04-28 Electronic pet system, network system, robot, and storage medium
US09/720,760 US6560511B1 (en) 1999-04-30 2000-04-28 Electronic pet system, network system, robot, and storage medium
US10/411,184 US7089083B2 (en) 1999-04-30 2003-04-10 Electronic pet system, network system, robot, and storage medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP11/125191 1999-04-30
JP12519199 1999-04-30
JP11/129207 1999-05-10
JP12920799 1999-05-10

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US09720760 A-371-Of-International 2000-04-28
US09/720,760 A-371-Of-International US6560511B1 (en) 1999-04-30 2000-04-28 Electronic pet system, network system, robot, and storage medium
US10/411,184 Division US7089083B2 (en) 1999-04-30 2003-04-10 Electronic pet system, network system, robot, and storage medium

Publications (1)

Publication Number Publication Date
WO2000066239A1 true WO2000066239A1 (fr) 2000-11-09

Family

ID=26461699

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002856 WO2000066239A1 (fr) 1999-04-30 2000-04-28 Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees

Country Status (5)

Country Link
US (2) US6560511B1 (ja)
EP (1) EP1092458A1 (ja)
KR (1) KR20010053322A (ja)
CN (1) CN1161700C (ja)
WO (1) WO2000066239A1 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6362589B1 (en) * 1919-01-20 2002-03-26 Sony Corporation Robot apparatus
JP2002233979A (ja) * 2001-01-19 2002-08-20 Chinsei Ri 知能型愛玩ロボット
JP2002236656A (ja) * 2001-02-08 2002-08-23 Nifty Corp チャットシステム及びサーバ装置
JP2002273067A (ja) * 2001-03-16 2002-09-24 Uizu:Kk 育成シミュレーション装置
KR20020097477A (ko) * 2001-06-21 2002-12-31 현명택 감성지수 성숙형 로봇완구 및 로봇완구의 감성성숙방법
JP2003033580A (ja) * 2001-07-25 2003-02-04 Sony Corp ネットワークシステム、情報提供装置及び情報提供方法
US6816802B2 (en) 2001-11-05 2004-11-09 Samsung Electronics Co., Ltd. Object growth control system and method
US6853880B2 (en) * 2001-08-22 2005-02-08 Honda Giken Kogyo Kabushiki Kaisha Autonomous action robot
KR100489211B1 (ko) * 2001-07-24 2005-05-17 현명택 감성지수성숙형 가상로봇을 기반으로 하는 게임방법
JP2007527556A (ja) * 2003-03-25 2007-09-27 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー オブジェクトのための行動トランスレータ
JP2010525848A (ja) * 2007-04-30 2010-07-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド 対話型玩具及びエンタテインメント装置
JP2011072377A (ja) * 2009-09-29 2011-04-14 Futaba Corp ラジオコントロール送信機、ラジオコントロール送信機における通信方法
US20150298315A1 (en) * 2013-11-21 2015-10-22 Origami Robotics, Inc. Methods and systems to facilitate child development through therapeutic robotics
WO2016052763A1 (ja) * 2014-10-01 2016-04-07 シャープ株式会社 報知制御装置およびプログラム
WO2016052764A1 (ja) * 2014-10-01 2016-04-07 シャープ株式会社 報知制御装置およびプログラム
WO2017068559A1 (ja) * 2015-10-23 2017-04-27 シャープ株式会社 ロボットおよびプログラム
WO2018047426A1 (ja) * 2016-09-06 2018-03-15 ソニー株式会社 仮想生物制御システム、仮想生物制御方法、および記録媒体
WO2018146756A1 (ja) * 2017-02-08 2018-08-16 ガンホー・オンライン・エンターテイメント株式会社 端末装置、プログラム及び方法
JP2018176384A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
WO2019123744A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020037155A (ja) * 2018-09-05 2020-03-12 日本放送協会 仕草制御装置及び仕草制御プログラム
WO2020095368A1 (ja) * 2018-11-06 2020-05-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、表示方法およびコンピュータプログラム
JP2020089529A (ja) * 2018-12-05 2020-06-11 トヨタ自動車株式会社 育成ゲームプログラムおよび育成ゲーム装置

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US6560511B1 (en) * 1999-04-30 2003-05-06 Sony Corporation Electronic pet system, network system, robot, and storage medium
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
KR100371163B1 (ko) * 2000-05-16 2003-02-06 엘지전자 주식회사 웹 서버를 이용한 성장형 완구 관리 방법
US20020087498A1 (en) * 2000-07-27 2002-07-04 Makoto Yoshida Autonomous behavior decision control system for an electronic device
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
KR100396753B1 (ko) * 2000-08-18 2003-09-02 엘지전자 주식회사 싸이버 공동체를 이용한 완구 학습 장치 및 방법
CN100380324C (zh) * 2000-08-28 2008-04-09 索尼公司 通信设备和通信方法、网络系统、以及机器人设备
TW528976B (en) * 2000-09-12 2003-04-21 Sony Corp Information providing system, information providing apparatus and information providing method as well as data recording medium
KR100779978B1 (ko) * 2000-09-12 2007-11-27 소니 가부시끼 가이샤 정보제공시스템, 정보제공장치 및 정보제공방법과데이터기록매체
US6816753B2 (en) * 2000-10-11 2004-11-09 Sony Corporation Robot control system and robot control method
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
US7245602B2 (en) * 2000-11-22 2007-07-17 Telefonaktiebolaget Lm Ericsson (Publ) System and method for anonymous Bluetooth devices
US6910186B2 (en) 2000-12-08 2005-06-21 Kyunam Kim Graphic chatting with organizational avatars
KR20020061186A (ko) * 2001-01-15 2002-07-24 주식회사 보스텍 로봇 제어, 설계 및 활용을 위한 학습시스템
JP2002268699A (ja) * 2001-03-09 2002-09-20 Sony Corp 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP2002283261A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置及びその制御方法、並びに記憶媒体
DE10118982A1 (de) * 2001-04-18 2002-10-24 Arvinmeritor Gmbh Fensterhebersystem sowie Verfahren zum Steuern mehrerer Fensterheber
DE10119771C2 (de) * 2001-04-23 2003-08-21 Andreas Stadlbauer Spielcomputer und reales, bewegbares Spielzeug
JP2004520648A (ja) * 2001-04-23 2004-07-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 装置を制御する方法
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
JP2002370183A (ja) * 2001-06-15 2002-12-24 Yamaha Motor Co Ltd 監視装置及び監視システム
KR100406055B1 (ko) * 2001-07-09 2003-11-17 미래산업 주식회사 홈로봇의 주행제어방법
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
KR20040042242A (ko) * 2002-11-13 2004-05-20 삼성전자주식회사 홈서버를 이용하는 홈로봇 및 이를 포함하는 홈네트워크시스템
KR100542340B1 (ko) * 2002-11-18 2006-01-11 삼성전자주식회사 홈네트워크 시스템 및 그 제어방법
US7137861B2 (en) * 2002-11-22 2006-11-21 Carr Sandra L Interactive three-dimensional multimedia I/O device for a computer
ATE527086T1 (de) * 2002-12-10 2011-10-15 Honda Motor Co Ltd Steuervorrichtung, steuerverfahren und steuerprogramm für einen roboter
KR100457813B1 (ko) * 2003-02-07 2004-11-18 삼성전자주식회사 커뮤니티 서비스 제공 시스템 및 방법
KR100503652B1 (ko) * 2003-03-04 2005-07-22 한국과학기술원 가상 생명체 시스템과 이를 이용한 교육용 소프트웨어시스템
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
US20060195598A1 (en) * 2003-03-28 2006-08-31 Masahiro Fujita Information providing device,method, and information providing system
US6804580B1 (en) * 2003-04-03 2004-10-12 Kuka Roboter Gmbh Method and control system for controlling a plurality of robots
KR20040104851A (ko) * 2003-06-04 2004-12-13 주식회사 우성엠피아이 블루투스 모듈을 이용한 모터 제어 시스템
US7862428B2 (en) 2003-07-02 2011-01-04 Ganz Interactive action figures for gaming systems
JP2005078456A (ja) * 2003-09-01 2005-03-24 Sony Corp コンテンツ提供システム
US7099745B2 (en) 2003-10-24 2006-08-29 Sap Aktiengesellschaft Robot system using virtual world
JP4367862B2 (ja) 2003-12-31 2009-11-18 ガンズ,ア・パートナーシップ・オブ・トゥー・オンタリオ・コーポレイションズ 仮想世界プレゼンテーションを提供する方法
US7465212B2 (en) * 2003-12-31 2008-12-16 Ganz System and method for toy adoption and marketing
US7534157B2 (en) 2003-12-31 2009-05-19 Ganz System and method for toy adoption and marketing
WO2005087337A1 (en) * 2004-03-12 2005-09-22 Koninklijke Philips Electronics N.V. Electronic device and method of enabling to animate an object
KR100607141B1 (ko) 2004-05-12 2006-08-01 한국생산기술연구원 개방형 분산처리구조의 로봇 제어 시스템
US7499776B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation Systems and methods for control of an unmanned ground vehicle
US8078338B2 (en) 2004-10-22 2011-12-13 Irobot Corporation System and method for behavior based control of an autonomous vehicle
US7627538B2 (en) * 2004-12-07 2009-12-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Swarm autonomic agents with self-destruct capability
US7556563B2 (en) * 2005-01-10 2009-07-07 Mattel, Inc. Internet enabled multiply interconnectable environmentally interactive character simulation module method and system
EP1693091A3 (en) * 2005-01-10 2008-02-27 Radica Games Ltd. Multiply interconnectable environmentally interactive character simulation module method and system
US7247783B2 (en) * 2005-01-22 2007-07-24 Richard Grossman Cooperative musical instrument
CA2918049C (en) * 2005-09-02 2019-04-09 Neato Robotics, Inc. Multi-function robotic device
US8645985B2 (en) 2005-09-15 2014-02-04 Sony Computer Entertainment Inc. System and method for detecting user attention
US8616973B2 (en) * 2005-09-15 2013-12-31 Sony Computer Entertainment Inc. System and method for control by audible device
US7890522B2 (en) * 2005-11-10 2011-02-15 Lg Electronics Inc. Record media written with data structure for recognizing a user and method for recognizing a user
US7836437B2 (en) * 2006-02-10 2010-11-16 Microsoft Corporation Semantic annotations for virtual objects
US8190658B2 (en) 2006-03-14 2012-05-29 Korea Institute Of Science And Technology Intelligent computing device agent system for automatic recognition of multi user computing environment and information sharing setup
US20070243930A1 (en) * 2006-04-12 2007-10-18 Gary Zalewski System and method for using user's audio environment to select advertising
US8324492B2 (en) * 2006-04-21 2012-12-04 Vergence Entertainment Llc Musically interacting devices
US20080039165A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for a scouting report in online gaming
US20080039169A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for character development in online gaming
US20080039166A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for multi-character online gaming
US8996172B2 (en) 2006-09-01 2015-03-31 Neato Robotics, Inc. Distance sensor system and method
KR100866216B1 (ko) * 2006-09-01 2008-10-30 삼성전자주식회사 유전자 코드를 가지는 소프트웨어 로봇의 생성 방법 및시스템
KR100905582B1 (ko) * 2006-09-06 2009-07-02 삼성전자주식회사 로봇 지놈을 생성하기 위한 시스템 및 생성 방법
CN101179406B (zh) * 2006-11-30 2011-01-12 腾讯科技(深圳)有限公司 一种电子宠物旅游方法、旅游服务器与系统
NZ564006A (en) 2006-12-06 2009-03-31 2121200 Ontario Inc System and method for product marketing using feature codes
EP1942601A1 (en) * 2006-12-29 2008-07-09 Union Creations Limited Device and method of expressing information in a communication message sent through a network
CN101183407A (zh) * 2007-01-23 2008-05-21 腾讯科技(深圳)有限公司 一种电子宠物进行游戏的实现方法和电子宠物客户端
KR100855943B1 (ko) * 2007-01-31 2008-09-02 한양대학교 산학협력단 E―food를 이용한 캐릭터 로봇 행동 학습 시스템
IL182521A0 (en) * 2007-04-12 2007-09-20 Naeh Baruch A personalized computer dressing
US20080274811A1 (en) * 2007-05-02 2008-11-06 S.H. Ganz Holdings Inc. And 816877 Ontario Limited Character training and development
US8272951B2 (en) * 2007-05-02 2012-09-25 Ganz Attribute building for characters in a virtual environment
US8128500B1 (en) 2007-07-13 2012-03-06 Ganz System and method for generating a virtual environment for land-based and underwater virtual characters
KR101399199B1 (ko) * 2007-07-16 2014-05-27 삼성전자주식회사 소프트웨어 로봇의 유전자 코드 구성 방법
GB0714148D0 (en) * 2007-07-19 2007-08-29 Lipman Steven interacting toys
US20090030808A1 (en) * 2007-07-26 2009-01-29 Shinyoung Park Customized toy pet
US8545335B2 (en) * 2007-09-14 2013-10-01 Tool, Inc. Toy with memory and USB ports
CN101119209A (zh) * 2007-09-19 2008-02-06 腾讯科技(深圳)有限公司 虚拟宠物系统和虚拟宠物聊天方法、装置
US9071436B2 (en) * 2007-12-21 2015-06-30 The Invention Science Fund I, Llc Security-activated robotic system
US8429754B2 (en) * 2007-12-21 2013-04-23 The Invention Science Fund I, Llc Control technique for object production rights
US9128476B2 (en) * 2007-12-21 2015-09-08 The Invention Science Fund I, Llc Secure robotic operational system
US8286236B2 (en) * 2007-12-21 2012-10-09 The Invention Science Fund I, Llc Manufacturing control system
US20110178619A1 (en) * 2007-12-21 2011-07-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Security-activated robotic tasks
US9626487B2 (en) * 2007-12-21 2017-04-18 Invention Science Fund I, Llc Security-activated production device
US9818071B2 (en) * 2007-12-21 2017-11-14 Invention Science Fund I, Llc Authorization rights for operational components
US20090164379A1 (en) * 2007-12-21 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Conditional authorization for security-activated device
US8752166B2 (en) * 2007-12-21 2014-06-10 The Invention Science Fund I, Llc Security-activated operational components
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
US8171407B2 (en) * 2008-02-21 2012-05-01 International Business Machines Corporation Rating virtual world merchandise by avatar visits
JP5159375B2 (ja) 2008-03-07 2013-03-06 インターナショナル・ビジネス・マシーンズ・コーポレーション メタバースにおけるオブジェクトの真贋判断システム、方法及びそのコンピュータ・プログラム
CN101601930B (zh) * 2008-06-11 2012-05-23 凌通科技股份有限公司 远端互动游戏装置与方法以及使用其的系统
KR101053875B1 (ko) * 2008-07-14 2011-08-03 삼성전자주식회사 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템
JP5404781B2 (ja) * 2008-07-18 2014-02-05 ハイドレイ リミテッド 対話式玩具
WO2010018486A1 (en) * 2008-08-11 2010-02-18 Nxp B.V. Programmable device and programming method
US8239259B2 (en) * 2008-08-15 2012-08-07 Ganz Donations in a virtual environment
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
US8677018B2 (en) 2008-08-25 2014-03-18 Google Inc. Parallel, side-effect based DNS pre-caching
US9197486B2 (en) 2008-08-29 2015-11-24 Google Inc. Adaptive accelerated application startup
TWI392983B (zh) * 2008-10-06 2013-04-11 Sonix Technology Co Ltd 利用音調的自動控制方法及其裝置
AU2009302550A1 (en) * 2008-10-06 2010-04-15 Vergence Entertainment Llc System for musically interacting avatars
TWI371303B (en) * 2009-02-04 2012-09-01 Inventec Appliances Corp Electronic pet cotrol system and control method thereof
US9225794B2 (en) 2009-03-31 2015-12-29 Google Inc. Adaptive DNS pre-resolution
US8788943B2 (en) * 2009-05-15 2014-07-22 Ganz Unlocking emoticons using feature codes
US20100306120A1 (en) * 2009-05-28 2010-12-02 Yunus Ciptawilangga Online merchandising and ecommerce with virtual reality simulation of an actual retail location
US20100306084A1 (en) * 2009-05-28 2010-12-02 Yunus Ciptawilangga Need-based online virtual reality ecommerce system
US8742814B2 (en) 2009-07-15 2014-06-03 Yehuda Binder Sequentially operated modules
US8939840B2 (en) 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
US8602833B2 (en) 2009-08-06 2013-12-10 May Patents Ltd. Puzzle with conductive path
US8795072B2 (en) * 2009-10-13 2014-08-05 Ganz Method and system for providing a virtual presentation including a virtual companion and virtual photography
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
TWI447660B (zh) * 2009-12-16 2014-08-01 Univ Nat Chiao Tung Robot autonomous emotion expression device and the method of expressing the robot's own emotion
CN102103707B (zh) * 2009-12-16 2014-06-11 群联电子股份有限公司 情感引擎、情感引擎系统及电子装置的控制方法
GB201005718D0 (en) * 2010-04-06 2010-05-19 Lipman Steven Interacting toys
TWI416289B (zh) 2010-05-28 2013-11-21 Compal Communications Inc 自動機械裝置及其控制方法
CN102279570A (zh) * 2010-06-10 2011-12-14 华宝通讯股份有限公司 自动机械装置及其控制方法
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
US8996429B1 (en) 2011-05-06 2015-03-31 Google Inc. Methods and systems for robot personality development
US10315119B2 (en) * 2011-05-17 2019-06-11 Activision Publishing, Inc. Video game with concurrent processing of game-related physical objects
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
US9597607B2 (en) 2011-08-26 2017-03-21 Littlebits Electronics Inc. Modular electronic building systems with magnetic interconnections and methods of using the same
US9019718B2 (en) 2011-08-26 2015-04-28 Littlebits Electronics Inc. Modular electronic building systems with magnetic interconnections and methods of using the same
US11330714B2 (en) 2011-08-26 2022-05-10 Sphero, Inc. Modular electronic building systems with magnetic interconnections and methods of using the same
US8894462B2 (en) * 2011-12-22 2014-11-25 Activision Publishing, Inc. Interactive video game with visual lighting effects
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9039532B2 (en) 2012-10-31 2015-05-26 Activision Publishing, Inc. Interactive video game with toys having functionality that is unlocked through game play
CN103019118A (zh) * 2012-12-07 2013-04-03 麦活鹏 基于Android平台的机器动作控制系统
US9324245B2 (en) * 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings
US9211645B2 (en) * 2012-12-13 2015-12-15 Korea Institute Of Industrial Technology Apparatus and method for selecting lasting feeling of machine
JP5902229B2 (ja) 2013-07-09 2016-04-13 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation シミュレーション方法およびシステム
WO2015004620A2 (en) * 2013-07-10 2015-01-15 Gerijoy Inc Virtual companion
KR101512084B1 (ko) * 2013-11-15 2015-04-17 한국과학기술원 가상현실 기반의 3차원 웹 검색 인터페이스를 제공하는 웹 검색 시스템 및 그 제공 방법
US20150148970A1 (en) * 2013-11-25 2015-05-28 Regal Beloit America, Inc. System and method for enabling wireless communication with a motor controller
US9364950B2 (en) * 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9533413B2 (en) * 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9579799B2 (en) * 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
JP6594646B2 (ja) * 2015-04-10 2019-10-23 ヴイストン株式会社 ロボット及びロボット制御方法並びにロボットシステム
US20190381665A1 (en) * 2015-05-08 2019-12-19 C2 Systems Limited System, method, computer program and data signal for the registration, monitoring and control of machines and devices
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
JP6639166B2 (ja) * 2015-09-15 2020-02-05 株式会社Soken 動作体の感情動作制御装置及び感情動作制御方法
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
US11185989B2 (en) * 2016-06-06 2021-11-30 Sony Corporation Virtual creature control system and virtual creature control method
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
WO2018012446A1 (ja) 2016-07-11 2018-01-18 Groove X株式会社 活動量をコントロールされる自律行動型ロボット
CN107644686A (zh) * 2016-07-20 2018-01-30 郎焘 基于虚拟现实的医学数据采集系统及方法
CN107643820B (zh) * 2016-07-20 2020-11-06 郎焘 Vr被动型机器人及其实现方法
CN109844735A (zh) * 2016-07-21 2019-06-04 奇跃公司 用于使用用户的情感状态控制虚拟图像生成系统的技术
CN107962571B (zh) * 2016-10-18 2021-11-02 江苏网智无人机研究院有限公司 目标对象的控制方法、装置、机器人和系统
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
US10001780B2 (en) 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
CN106878390B (zh) * 2017-01-09 2020-07-28 北京奇虎科技有限公司 电子宠物互动控制方法、装置及可穿戴设备
US10377040B2 (en) 2017-02-02 2019-08-13 Brain Corporation Systems and methods for assisting a robotic apparatus
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
CN106875663B (zh) * 2017-04-18 2020-07-28 天纳能源科技(上海)有限公司 一种用于变配电站监测系统的数据集中器及控制方法
US10250532B2 (en) * 2017-04-28 2019-04-02 Microsoft Technology Licensing, Llc Systems and methods for a personality consistent chat bot
JP6549654B2 (ja) * 2017-08-03 2019-07-24 ファナック株式会社 ロボットシステムのシミュレーション装置およびシミュレーション方法
CN107336243B (zh) * 2017-08-24 2019-12-31 安徽工大信息技术有限公司 基于智能移动终端的机器人控制系统及控制方法
CN111417442B (zh) * 2017-10-16 2023-08-08 乐高公司 交互式游戏设备
US10864443B2 (en) 2017-12-22 2020-12-15 Activision Publishing, Inc. Video game content aggregation, normalization, and publication systems and methods
CN108196674A (zh) * 2017-12-29 2018-06-22 梁穗 用于虚拟感应现实的实体模型、通过虚拟设备感应现实模型的系统及实现方法
US10792813B1 (en) 2018-04-26 2020-10-06 X Development Llc Managing robot resources
CN108854074B (zh) * 2018-06-15 2021-08-24 北京奇虎科技有限公司 电子宠物的配置方法及装置
CN109034364A (zh) * 2018-08-07 2018-12-18 穆天机器人(杭州)有限公司 一种机器人拟人模糊情绪生成方法
WO2020081630A2 (en) 2018-10-17 2020-04-23 Petoi, Llc Robotic animal puzzle
WO2020158642A1 (ja) * 2019-01-31 2020-08-06 ソニー株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
JP2022051982A (ja) * 2019-02-15 2022-04-04 ソニーグループ株式会社 情報処理装置および情報処理方法
US11616844B2 (en) 2019-03-14 2023-03-28 Sphero, Inc. Modular electronic and digital building systems and methods of using the same
JP2022539333A (ja) 2019-07-03 2022-09-08 ソウル マシーンズ リミティド 哺乳動物モデル及び人工神経系の運動状態、又は挙動間の動態を模擬するアーキテクチャ、システム、並びに方法
US11389735B2 (en) 2019-10-23 2022-07-19 Ganz Virtual pet system
US11712627B2 (en) 2019-11-08 2023-08-01 Activision Publishing, Inc. System and method for providing conditional access to virtual gaming items
US11239899B2 (en) 2019-12-13 2022-02-01 Disney Enterprises, Inc. Near field communication antenna system for a playset
US11918928B2 (en) * 2019-12-17 2024-03-05 Disney Enterprises, Inc. Virtual presentation of a playset
US11526823B1 (en) 2019-12-27 2022-12-13 Intrinsic Innovation Llc Scheduling resource-constrained actions
US11358059B2 (en) 2020-05-27 2022-06-14 Ganz Live toy system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01120690A (ja) * 1987-11-04 1989-05-12 Nec Corp メモリーカード内蔵型データ処理装置
JPH08202679A (ja) * 1995-01-23 1996-08-09 Sony Corp ロボット
JPH08335091A (ja) * 1995-06-09 1996-12-17 Sony Corp 音声認識装置、および音声合成装置、並びに音声認識合成装置
JPH10322775A (ja) * 1997-03-17 1998-12-04 Bandai Co Ltd 携帯用電子機器装置
JPH10319831A (ja) * 1997-05-21 1998-12-04 Sony Corp クライアント装置、画像表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体
JPH10333542A (ja) * 1997-05-27 1998-12-18 Sony Corp クライアント装置、表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体
EP0898237A2 (en) * 1997-08-22 1999-02-24 Sony Corporation Storage medium, robot, information processing device and electronic pet system
JP3079035B2 (ja) * 1996-05-27 2000-08-21 日鉱金属株式会社 金の回収方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6362589B1 (en) * 1919-01-20 2002-03-26 Sony Corporation Robot apparatus
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US4657104A (en) * 1983-07-23 1987-04-14 Cybermation, Inc. Concentric shaft mobile base for robots and the like
US5742738A (en) * 1988-05-20 1998-04-21 John R. Koza Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations
JPH0379035A (ja) 1989-08-22 1991-04-04 Nippondenso Co Ltd Mosトランジスタ及びその製造方法
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US5963712A (en) * 1996-07-08 1999-10-05 Sony Corporation Selectively configurable robot apparatus
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
US6560511B1 (en) * 1999-04-30 2003-05-06 Sony Corporation Electronic pet system, network system, robot, and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01120690A (ja) * 1987-11-04 1989-05-12 Nec Corp メモリーカード内蔵型データ処理装置
JPH08202679A (ja) * 1995-01-23 1996-08-09 Sony Corp ロボット
JPH08335091A (ja) * 1995-06-09 1996-12-17 Sony Corp 音声認識装置、および音声合成装置、並びに音声認識合成装置
JP3079035B2 (ja) * 1996-05-27 2000-08-21 日鉱金属株式会社 金の回収方法
JPH10322775A (ja) * 1997-03-17 1998-12-04 Bandai Co Ltd 携帯用電子機器装置
JPH10319831A (ja) * 1997-05-21 1998-12-04 Sony Corp クライアント装置、画像表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体
JPH10333542A (ja) * 1997-05-27 1998-12-18 Sony Corp クライアント装置、表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体
EP0898237A2 (en) * 1997-08-22 1999-02-24 Sony Corporation Storage medium, robot, information processing device and electronic pet system

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6362589B1 (en) * 1919-01-20 2002-03-26 Sony Corporation Robot apparatus
JP2002233979A (ja) * 2001-01-19 2002-08-20 Chinsei Ri 知能型愛玩ロボット
JP2002236656A (ja) * 2001-02-08 2002-08-23 Nifty Corp チャットシステム及びサーバ装置
JP2002273067A (ja) * 2001-03-16 2002-09-24 Uizu:Kk 育成シミュレーション装置
KR20020097477A (ko) * 2001-06-21 2002-12-31 현명택 감성지수 성숙형 로봇완구 및 로봇완구의 감성성숙방법
KR100489211B1 (ko) * 2001-07-24 2005-05-17 현명택 감성지수성숙형 가상로봇을 기반으로 하는 게임방법
JP2003033580A (ja) * 2001-07-25 2003-02-04 Sony Corp ネットワークシステム、情報提供装置及び情報提供方法
US6853880B2 (en) * 2001-08-22 2005-02-08 Honda Giken Kogyo Kabushiki Kaisha Autonomous action robot
US6816802B2 (en) 2001-11-05 2004-11-09 Samsung Electronics Co., Ltd. Object growth control system and method
KR100580617B1 (ko) * 2001-11-05 2006-05-16 삼성전자주식회사 오브젝트 성장제어 시스템 및 그 방법
JP2007527556A (ja) * 2003-03-25 2007-09-27 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー オブジェクトのための行動トランスレータ
US7574332B2 (en) 2003-03-25 2009-08-11 British Telecommunications Plc Apparatus and method for generating behaviour in an object
JP2010525848A (ja) * 2007-04-30 2010-07-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド 対話型玩具及びエンタテインメント装置
JP2011072377A (ja) * 2009-09-29 2011-04-14 Futaba Corp ラジオコントロール送信機、ラジオコントロール送信機における通信方法
US20150298315A1 (en) * 2013-11-21 2015-10-22 Origami Robotics, Inc. Methods and systems to facilitate child development through therapeutic robotics
WO2016052764A1 (ja) * 2014-10-01 2016-04-07 シャープ株式会社 報知制御装置およびプログラム
JP2016072927A (ja) * 2014-10-01 2016-05-09 シャープ株式会社 報知制御装置およびプログラム
WO2016052763A1 (ja) * 2014-10-01 2016-04-07 シャープ株式会社 報知制御装置およびプログラム
WO2017068559A1 (ja) * 2015-10-23 2017-04-27 シャープ株式会社 ロボットおよびプログラム
JP7014168B2 (ja) 2016-09-06 2022-02-01 ソニーグループ株式会社 仮想生物制御システム、仮想生物制御方法、およびプログラム
WO2018047426A1 (ja) * 2016-09-06 2018-03-15 ソニー株式会社 仮想生物制御システム、仮想生物制御方法、および記録媒体
JPWO2018047426A1 (ja) * 2016-09-06 2019-06-24 ソニー株式会社 仮想生物制御システム、仮想生物制御方法、および記録媒体
WO2018146756A1 (ja) * 2017-02-08 2018-08-16 ガンホー・オンライン・エンターテイメント株式会社 端末装置、プログラム及び方法
JPWO2018146756A1 (ja) * 2017-02-08 2019-02-14 ガンホー・オンライン・エンターテイメント株式会社 端末装置、プログラム及び方法
US10434414B2 (en) 2017-02-08 2019-10-08 GungHo Online Entertainment, Inc. Terminal device, program, and method
JP2018176384A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
WO2019123744A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN111278516A (zh) * 2017-12-22 2020-06-12 索尼公司 信息处理装置、信息处理方法和程序
JP2020037155A (ja) * 2018-09-05 2020-03-12 日本放送協会 仕草制御装置及び仕草制御プログラム
JP7152908B2 (ja) 2018-09-05 2022-10-13 日本放送協会 仕草制御装置及び仕草制御プログラム
WO2020095368A1 (ja) * 2018-11-06 2020-05-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、表示方法およびコンピュータプログラム
JPWO2020095368A1 (ja) * 2018-11-06 2021-09-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、表示方法およびコンピュータプログラム
JP2020089529A (ja) * 2018-12-05 2020-06-11 トヨタ自動車株式会社 育成ゲームプログラムおよび育成ゲーム装置

Also Published As

Publication number Publication date
US6560511B1 (en) 2003-05-06
KR20010053322A (ko) 2001-06-25
US20030191560A1 (en) 2003-10-09
US7089083B2 (en) 2006-08-08
CN1313781A (zh) 2001-09-19
EP1092458A1 (en) 2001-04-18
CN1161700C (zh) 2004-08-11

Similar Documents

Publication Publication Date Title
WO2000066239A1 (fr) Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US6449518B1 (en) Storage medium, robot, information processing device and electronic pet system
US6470235B2 (en) Authoring system and method, and storage medium used therewith
US7219064B2 (en) Legged robot, legged robot behavior control method, and storage medium
EP1151779B1 (en) Robot and action deciding method for robot
EP1569129B1 (en) Dialogue control device and method, and robot device
EP1072365A1 (en) Control system for a modular machine
EP1136194A1 (en) Robot, method of robot control, and program recording medium
KR20000072753A (ko) 근거리 무선통신 수단을 내장한 지능형 장난감
WO2000043167A1 (fr) Robot et procede de commande de deplacement
JP2005193331A (ja) ロボット装置及びその情動表出方法
JP2001212782A (ja) ロボット装置及びロボット装置の制御方法
EP1688165A1 (en) Toy, data transmission method, and data transmission system
WO2001050362A1 (fr) Systeme et procede d'achat, dispositif et procede d'acceptation de commandes et programme informatique
JP2003111981A (ja) ロボット装置及びその制御方法、ロボットのための情報提供システム及び情報提供方法、並びに記憶媒体
WO2002030629A1 (fr) Appareil robot, systeme d"affichage d"information et procede d"affichage d"information
JP4556425B2 (ja) コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
CN111278516A (zh) 信息处理装置、信息处理方法和程序
JP2001191274A (ja) データ保持装置、ロボット装置、変更装置及び変更方法
JP2001191279A (ja) 行動管理システム、行動管理方法及びロボット装置
Marti Autonomous interactive intermediaries: social intelligence for mobile communication agents
JP2002120171A (ja) 動作表出装置及び玩具
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP3501123B2 (ja) ロボット装置及びロボット装置の行動制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00801112.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 1020007015057

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2000922918

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09720760

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2000922918

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007015057

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 2000922918

Country of ref document: EP

WWR Wipo information: refused in national office

Ref document number: 1020007015057

Country of ref document: KR