WO2007037068A1 - 合奏システム - Google Patents

合奏システム Download PDF

Info

Publication number
WO2007037068A1
WO2007037068A1 PCT/JP2006/315077 JP2006315077W WO2007037068A1 WO 2007037068 A1 WO2007037068 A1 WO 2007037068A1 JP 2006315077 W JP2006315077 W JP 2006315077W WO 2007037068 A1 WO2007037068 A1 WO 2007037068A1
Authority
WO
WIPO (PCT)
Prior art keywords
performance
terminal
ensemble
assigned
performance terminal
Prior art date
Application number
PCT/JP2006/315077
Other languages
English (en)
French (fr)
Inventor
Satoshi Usa
Tomomitsu Urai
Original Assignee
Yamaha Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corporation filed Critical Yamaha Corporation
Priority to US12/088,306 priority Critical patent/US7947889B2/en
Priority to EP06768386A priority patent/EP1930874A4/en
Publication of WO2007037068A1 publication Critical patent/WO2007037068A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Definitions

  • the present invention relates to an ensemble system in which even a person unfamiliar with the operation of a musical instrument can easily participate in an ensemble, and in particular, an ensemble with a simple and flexible assignment of a performance part between a guide role and each participant. About the system. Background art
  • This electronic musical instrument allows multiple users to perform ensembles with a simple operation (shaking by hand).
  • a slave unit (operator) is connected to the master unit, and performance information for one song is transmitted in advance.
  • the master unit is based on the allocation instruction data recorded on the floppy disk. Assign a performance part for each slave unit. In such a case, once the performance information was sent from the master unit to the slave unit, the transmitted performance part could only be played on that slave unit.
  • each handset performed along with the master machine's demo performance.
  • a group is formed with a predetermined number of people (for example, about 5 people), and the facility (guide role) guides each participant. This is often the case.
  • the facilitator could not show a model performance.
  • An object of the present invention is to provide an ensemble system capable of easily and flexibly assigning performance parts between a guide role and each participant. Disclosure of the invention
  • the ensemble system of the present invention includes a plurality of performance terminals each having at least one performance operator for performing a performance operation, at least one sound source, and the plurality of sound sources.
  • a performance system comprising: a performance terminal and a controller connected to at least one sound source and controlling each performance terminal, wherein the controller is a piece of musical performance data comprising a plurality of performance parts.
  • Storage means for storing an assignment list in which identification information of the performance terminal assigned to each performance part is stored, a performance terminal participating in the ensemble and a performance terminal not participating in the ensemble, and an ensemble Operation means for selecting performance music data to be played, and when performance music data is selected by the operation means, each of the performance terminals is assigned based on the assigned list ⁇ .
  • a performance part assigning means for assigning a performance part, wherein a performance terminal assigned to a performance terminal not participating in the ensemble is replaced with another performance terminal not participating in the ensemble.
  • the performance part assigned to the performance terminal is read out in accordance with the one assigned to the performance terminal and the operation mode of the performance controller of each performance terminal, and the data of the read performance part is read out as the sound source.
  • a performance control means for outputting to the music.
  • the user selects a performance terminal that participates in the ensemble and a performance terminal that does not participate in the ensemble using the operation means of the controller. Also select performance data to play.
  • the performance song data consists of a plurality of performance parts, and the identification information of the performance terminal to which each performance part is assigned is described in the list.
  • the controller reads the list and assigns each performance part to the performance terminal that participates in the ensemble. After that, the user instructs the start of the performance, and performs the performance operation with the performance operator of the performance terminal.
  • the performance operator of the performance terminal is, for example, an electronic piano keyboard. When one of the keys is pressed, an operation signal is sent to the controller. Based on the received operation signal, the controller sends to the sound source a sound instruction for the performance part assigned to the performance terminal. The sound source produces a musical sound in response to a sound generation instruction.
  • the controller further includes mode switching means for switching from a normal performance mode to a sample performance mode, and in the sample performance mode, the controller performs a sample performance from the plurality of performance terminals.
  • each user can listen to the model performance of the facilitator (guide role) at the performance terminal at hand.
  • the sound source is built in each of the plurality of performance terminals, and the front The performance control means of the controller outputs the read performance part data to a sound source built in the performance terminal to which the performance part is assigned.
  • the controller reads the performance part assigned to the performance terminal based on the operation signal received from the performance terminal, and reads the data of the read performance part ⁇ ⁇ . Send to the sound source built in the performance terminal.
  • the built-in sound source of the performance terminal produces a musical tone in response to the received pronunciation instruction. In this way, each performance part is pronounced at each performance terminal.
  • the performance part assigning means is a performance from the operation means.
  • the user can change the performance part of each performance terminal manually. This allows each performance part to be freely played on a performance terminal different from the default setting.
  • the performance part allocating means is assigned to a performance terminal that does not participate in the ensemble when the performance terminal described in the allocation list is a performance terminal that does not participate in the ensemble. Assign the played performance part to the end of the guide role.
  • a plurality of performance parts are assigned to the performance terminal for the facilitator.
  • the storage means further stores a table nore that defines a plurality of performance parts related to each other as a single group, and the performance part assignment means includes the assignment part.
  • the performance terminal described in the list ⁇ is a performance terminal that does not participate in the ensemble
  • the performance part assigned to the performance terminal that does not participate in the ensemble is referred to the table and Assign to a performance terminal to which another performance part belonging to the group is assigned.
  • a performance part for example, drums
  • another performance part for example, bass belonging to the same group with reference to the table.
  • Related multiple performance parts include drums and bass performance parts, multiple stringed instrument performance parts, and multiple wind instrument performance parts.
  • Figure 1 is a block diagram showing the configuration of the performance system.
  • Figure 2 is a block diagram showing the configuration of the controller.
  • Figure 3 is a block diagram showing the configuration of the performance terminal.
  • Fig. 4 shows an example of music data.
  • FIG. 5 is a diagram showing an example of the part allocation table.
  • FIG. 6 shows the main operation window.
  • Figure 7 shows the MID I port selection window.
  • FIG. 8 shows the ensemble window
  • FIG. 9A shows the setting of the number of beats
  • Fig. 9B shows the time (1st and 3rd beats) that will be the keystroke timing and the time (2 beats) that will not be the keystroke timing.
  • FIG. 6 is a diagram showing an example of icon display of (eye, fourth beat).
  • Figure 10 shows the current beat transition
  • Figure 11 is a diagram for explaining the gap in beats with the performance terminal “Facilitator”.
  • Fig. 1 2 A is a diagram for explaining the sample performance mode
  • Fig. 1 2 B is It is a part of the screen which selects the performance terminal which performs a model performance.
  • Figure 13 is a flowchart showing the operation of the controller in the sample performance mode.
  • Fig. 1 is a block diagram showing the configuration of the ensemble system. As shown in the figure, this ensemble system is composed of controller 1 and multiple (6 in the figure) connected to controller 1 via Ml DI interface box 3. Performance terminals 2A to 2F. Among the performance terminals 2, the performance terminal 2A is a performance terminal for a facilitator (guide role), and the performance terminals 2B to 2F are performance terminals for a participant (student role). 5 participants using performance terminals 2 B to 2 F always use the same performance terminal 2. This allows the facilitator to identify participants at the performance terminal.
  • the controller 1 is composed of, for example, a personal computer, and controls each performance terminal 2 and collects data by a software installed in the personal computer. Controller 1 stores performance music data consisting of multiple parts. These parts consist of one or more melody parts, rhythm parts, and accompaniment parts.
  • the controller 1 includes a communication unit 11 to be described later, which transmits sound data of each part (or a plurality of parts) to each performance terminal 2.
  • the performance terminal 2 generates musical sounds according to the performance operation of the user as well as the performance operation by the user, and is composed of an electronic keyboard instrument such as an electronic piano.
  • MIDI interface box 3 connected to controller 1 via USB is used, and each performance terminal 2 is connected via a separate MIDI system.
  • performance terminal 2 Let A be the performance terminal for the facility. Controller 1 is used to specify the performance terminal for the facility.
  • the performance terminal 2 is not limited to an electronic piano, but may be another form of electronic musical instrument such as an electronic guitar.
  • the external terminal is not limited to a natural musical instrument, but may be a terminal with buttons and other controls. Note that it is not necessary for the performance terminal 2 to have a built-in sound source. You can connect.
  • the number of sound sources connected to controller 1 may be one, or the same number as that of performance terminal 2. If the same number of sound sources as performance terminal 2 are connected, controller 1 should associate each sound source with performance terminal 2 and assign each part of the song data.
  • This ensemble system assigns multiple performance pads of the performance data stored in controller 1 to multiple performance terminals 2, and each performance terminal 2 is assigned independently. Proceed with automatic performance.
  • Controller 1 transmits to performance terminal 2 a sound instruction for each note of the performance part assigned to performance terminal 2 based on the input tempo and timing instructions.
  • the performance terminal 2 performs automatic performance based on the received pronunciation instruction.
  • An ensemble is formed by the student using each performance terminal 2 taking the tempo according to the facilitator.
  • FIG. 2 is a block diagram showing the configuration of the controller 1.
  • the controller 1 includes a communication unit 11, a control unit 12, an HDD 13, a RAM 14, an operation unit 15, and a display unit 16.
  • the control unit 1 2 includes a communication unit 1 1, HDD 1 3, RAMI 4, operation unit 15 and display unit 16. It is connected.
  • the communication unit 1 1 is a circuit unit that communicates with the performance terminal 2 and has a USB interface (not shown). This USB interface is connected to the M ID I interface box 3, and the communication unit 11 communicates with the six performance terminals 2 via the M ID interface box 3 and the MI D I cable.
  • HD D 13 stores the operation program for controller 1 and performance music data consisting of multiple parts.
  • the control unit 1 2 reads the operation program stored in the HDD 1 3 and expands it to the RAM I 4 which is the work memory, the part allocation process 50, the sequence process 51, and the sound generation instruction process. 5 Perform 2 etc.
  • the part assignment process 50 each performance part of the performance data is assigned to multiple performance terminals 2.
  • sequence processing 51 each performance part of the performance data is sequenced (determination of the pitch and length of each sound) according to the tempo and timing instructions received from each performance terminal 2. .
  • the sound generation instruction process 52 the pitch and length of each sound determined in the sequence process 51 are transmitted to the performance terminal 2 as sound generation instruction data.
  • the operation unit 15 is used by a user (mainly a facilitator) to instruct the performance system to operate.
  • the facilitator operates the operation unit 15 to specify, for example, performance music data to be played, or to assign the performance part of each performance terminal 2.
  • the display unit 16 is a display (monitor), and the facilitator and each participant perform performance operations while viewing the display unit 16. Although details will be described later, various information for performing an ensemble is displayed on the display unit 16.
  • FIG. 3 is a block diagram showing the configuration of the performance terminal 2.
  • the performance terminal 2 includes a communication unit 2 1, a control unit 2 2, a keyboard 2 3 that is a performance operator, a sound source 2 4, and a speaker 2 5. Communication to control unit 2 2 Part 2 1, keyboard 2 3, and sound source 2 4 are connected. In addition, a speaker 25 is connected to the sound source 24.
  • the communication unit 21 is a M ID I interface, and communicates with the controller 1 via a M ID I cable.
  • the control unit 2 2 controls the performance terminal 2 in an integrated manner.
  • the keyboard 2 3 has, for example, 6 keys and 88 keys, and can play in the 5-7 octave range. Only message and velocity data are used. In other words, each key has a built-in sensor for detecting on / off and a sensor for detecting the keystroke, and the keyboard 2 3 is operated by each key (which key is pressed with what strength).
  • the operation signal is output to the control unit 22 according to the Based on the input operation signal, the control unit 22 transmits a not-on message or a not-off message to the controller 1 via the communication unit 21.
  • the sound source 24 generates a musical sound waveform in accordance with the control of the control unit 2 2 and outputs it as an audio signal to the speaker 25.
  • Speaking power 2 5 plays the audio signal input from sound source 2 4 and produces a musical sound.
  • sound source 2 4 and speaker 2 5 may not be built into performance terminal 2.
  • the sound source 2 4 and the speaker 2 5 may be connected to the controller 1 so that the musical sound is generated from a different place from the performance terminal 2.
  • the same number of sound sources as each performance terminal 2 may be connected to the controller 1, or a single sound source may be used.
  • the control unit 2 2 sends a note-on / not-off message to the controller 1 (local off), and not the keyboard 2 3 message.
  • Musical sounds are generated in response to instructions from controller 1, but performance terminal 2 can of course be used as a general electronic musical instrument in addition to the operations described above.
  • the control unit 2 2 does not send a note message to the controller 1. (Local On), it is also possible to instruct the note 24 to play a musical tone based on the note message.
  • Mouth Karon and Local Off can be switched by the user using the operation unit 15 of the controller 1 or by the terminal operation unit (not shown) of the performance terminal 2. It is also possible to set so that only a part of the keyboard has a mouth cull off and the other keys have a mouth cull on.
  • the user uses the operation part 15 of the controller 1 to select the performance music data.
  • the performance music data is data (standard M I D I) created in advance based on the M I D I standard, and is stored in the HDD 1 3 of the controller 1.
  • Figure 4 shows an example of this music data.
  • the performance music data is composed of a plurality of performance parts, and includes identification information for identifying each performance part and performance information of each performance part.
  • controller 1 assigns a performance part to each connected performance terminal 2.
  • a table is specified in advance for which performance part is assigned to which performance terminal.
  • FIG. 5 is a diagram showing an example of a performance part assignment table.
  • the performance part 1 corresponds to MIDI port 0 (performance terminal for facilitator).
  • the MIDI port indicates the port number of the MIDI interface box 3, and each performance terminal 2 is identified by its connected MIDI port.
  • the performance part 2 corresponds to the MIDI port 1 (piano 1).
  • the performance part 2 is assigned to the performance terminal 2B. In this way, each performance terminal 2 is automatically assigned a performance par ⁇ .
  • This performance part allocation table In the table, the facilitator registered in HDD 1 3 of controller 1 in advance. The facilitator may be manually selected using the operation unit 15 of the controller 1.
  • each performance terminal 2 When each performance terminal 2 is connected to the USB port, each performance terminal 2 may be identified by the USB port number.
  • Controller 1 reads out the performance data from HDD 1 3 to RAMI 4 and performs the performance. It is to be.
  • each performance terminal 2 can perform.
  • this ensemble system multiple users perform performance operations according to the performance of the facilitator (ensemble leader).
  • each user performs in accordance with the performance of the facilitator (human performance) rather than simply performing in accordance with the model performance (machine demo performance). You can get a feeling.
  • the control unit 2 2 controls the note-on message according to the strength with which the keyboard 2 3 is pressed. Send to 1.
  • the control unit 2 2 sends a note-off message to the controller 1.
  • the controller 1 Based on the note-on message and note-off message received from the performance terminal 2, the controller 1 has a predetermined length (eg, the performance part assigned to the performance terminal 2). For example, the pitch and pitch of each sound in the performance data for one beat are determined, and the performance data for which the pitch and pitch have been determined is sent to the performance terminal 2 as pronunciation instruction data.
  • the pronunciation instruction data includes the timing, tone length, intensity, tone color, effect, pitch change (pitch bend), tempo, etc. that should be pronounced.
  • Controller 1 determines the sound generation instruction data based on the time from when the note-on message is received until the note-off message is received. Specifically, when a note-on message is input, the performance information for the specified length (such as one beat) of the corresponding performance part of the performance data is read and pronounced. Determine tone, effect, pitch change, etc. Controller 1 determines the sound intensity of the note-on message Velocity information.
  • the performance information of the performance music data includes information indicating the volume, and the intensity is determined by multiplying the volume by the Velocity information.
  • the performance data contains volume information that takes into account the volume expression (sound intensity) in the song in advance. However, each user has a dynamic expression corresponding to the strength with which the user presses the keyboard. It is added and the pronunciation intensity is determined.
  • Controller 1 measures the time since a note-on message was entered when a note-off message was entered. Until a note-off message is input, the first sound is generated as it is, and when the note-off message is input, the tempo for each beat and the length of each note are determined and Play a musical sound.
  • the tempo may be determined simply from the time from note-on to note-off (referred to as “Gate Time”), but the tempo may be determined as follows. In other words, the moving average of Ga teT i me is calculated for multiple keystrokes (several to the previous several times), and this is weighted by time. The most weight is given to the most recent keystroke, and the weight is made smaller as the past keystrokes are reached. By determining the tempo in this way, only at certain keystrokes Even if GateTire changes greatly, the tempo does not change suddenly, and the tempo can be changed without a sense of incongruity according to the flow of the song.
  • the control unit 2 2 of the performance terminal 2 receives the sound generation instruction data determined by the controller 1 as described above, and instructs the sound source 2 4 to generate a musical sound waveform.
  • the sound source 2 4 generates a musical sound waveform and reproduces a musical sound from the speaker 25.
  • the above process is repeated. For example, by pressing the keyboard 2 3 every beat, the song can be played.
  • the first tone that is sounded is generated as it is, so that the same tone will continue to be played until the user returns the finger from the keyboard 23.
  • a performance expression (fermata) that extends the sound.
  • the following performance expression can be realized by determining the tempo based on the moving average of the game time as described above. For example, if keyboard 2 3 is pressed shortly only when a certain key is pressed, the length of each note for that beat is shortened, while if keyboard 23 is pressed slowly, that beat Increase the length of each sound. This makes it possible to create a performance expression (staccato) that keeps the sound crisp, while the tempo does not change significantly, or to maintain the length of the sound without changing the tempo. (Tenuto) can be realized.
  • the note-on message and the note-off message are transmitted to the controller 1 even if any key 23 of the performance terminals 2A to 2F is pressed.
  • the stacker can be used for tenuto and the keyboard that does not work. Controller 1 only needs to change the sound length while maintaining the tempo only when a note-on message or a note-off message from a specific keyboard (eg, E 3) is input.
  • a specific keyboard eg, E 3
  • Each performance terminal (Facilitator, Pianol to 5) is displayed in the SettingJ field, and there is a burundun menu for selecting the attendance for each performance terminal and a radio button for assigning the performance part.
  • Each performance terminal (Facilitator, Pianol to 5) is associated with the MIDI port of MIDI interface box 3. Note that the facilitator is manually connected to the performance terminal as shown in Figure 7. It is also possible to select the MIDI port to be associated with (Facilitator, Pianol to 5).
  • the attendance pull-down menu is selected and input by the facilitator according to the attendance of students. Radio buttons are displayed only on performance terminals to which performance parts are assigned in the performance data.
  • performance parts 1, 2, 3, and 10 are set in the selected musical composition data, and when this musical composition data is selected, the performance terminal “ Facilitator, “PianolJ, ⁇ Piano2j, and ⁇ Piano3j are automatically assigned to performance parts 1, 2, 3, and 10 in the figure. Only the performance terminals “FacilitatorJ” and “Pianol ⁇ 3” are assigned performance part power; for example, the performance data contains 6 performance parts. In this case, a performance part is assigned to each of the performance terminals “Facilitator” and “Pianol ⁇ 5”. If there are more performance parts than MIDI ports (performance terminals), assign multiple performance parts to the “Facilitator” performance terminal.
  • the user who operates controller 1 It is also possible to manually select each performance part to the desired performance terminal by selecting the desired performance terminal. If the “FacilitatorOnly” check box is selected, all performance members will be assigned to the performance terminal “Facilitator J.” Radio buttons will be displayed on performance terminals whose pull-down menu is set to “absent”. And the performance part is not assigned.
  • the performance part when performing performances are automatically assigned based on the table in Figure 5, if “absent” is selected for the “attendance” and “absence” pull-down menus, the performance part will be assigned to that performance terminal.
  • the performance part should be assigned to the performance terminal “Facilitator”.
  • the performance part of “absent” is assigned to a performance part that has a similar musical role (eg, bass, stringed instrument group, etc.). You may make it substitute instead of a performance terminal.
  • the performance parts related to each other should be specified in advance using a table.
  • the Start button of the performance control buttons displayed at the left center of the window will start the performance, and the ensemble window shown in Figure 8 will appear. Is displayed on display 16. Also in this window, the name of the selected performance data is displayed in the upper text field. On the upper right side of the window, the number of measures of the selected song data and the currently playing measure are displayed.
  • the beat number field (BeatSetting) displayed at the top center of the window has a radio button for setting the number of beats within one measure. In the figure, one measure is played with 4 beats and 4 minutes of song data, so if you set the number of beats to 4, you will be able to play keys for each beat. Also, as shown in Fig.
  • controller 1 sends a note-on message and a note-off message from performance terminal 2.
  • the pronunciation instruction data for 2 beats is returned. That is,
  • the current number of measures, the number of beats within the measure (the number of times the key should be played within the measure), and the current beat (current keystroke timing) are displayed.
  • the number of times the key should be pressed is displayed with a square icon with numbers inside, and the current beat is displayed with a solid square or bold icon.
  • the display method is not limited to the icon of this example, but may be an icon of another shape.
  • the time signature (second beat, fourth beat) that does not become the keystroke timing is displayed by changing it to another shape such as a circle number.
  • the current beat changes by one beat as shown in Fig. 10.
  • the solid square or bold icons are changed in the order of 1st beat, 2nd beat, 3rd beat, and 4th beat.
  • the performance data in this example is music data of 4 beats / 4 minutes, so when the next key is pressed for the 4th beat, it returns to the 1st beat and advances one measure.
  • a field indicating the beat displacement with the performance terminal "Facilitator” is displayed on the right side of the center of the window.
  • multiple lines for example, 5 lines
  • the lines are displayed in the horizontal direction corresponding to each performance terminal.
  • a circle is displayed corresponding to each performance terminal. This circle indicates the gap in beats with the performance terminal “FacilitatorJ”.
  • Figure 11 is a diagram for explaining the gap in beats with the performance terminal “Facilitator”.
  • the circle corresponding to the performance terminal “Facilitator” is displayed fixed to the center line of the vertical lines.
  • the circle corresponding to each user's performance terminal (for example, “Pianol”) is the performance terminal “Facilitator”. Moves left and right according to the difference between the beats.
  • the performance terminal “Facilitator” is one bar (in this example, 4 beats). If the key is delayed, as shown in the figure, one vertical line is moved to the left. The circle moves. Half measure (2 beats) If the delay occurs, the circle moves from the center line in the vertical direction to the left by half the line interval.
  • the circle will move to the right.
  • the beat deviation for two measures can be displayed. If the beat is shifted by 2 bars or more, change the icon on the left and right lines (for example, change it to a square icon). In this way, each user can easily recognize the difference in performance (beat) with the facilitator.
  • one line represents a deviation of one measure, but for example, one line may represent a deviation of one or two measures or two measures.
  • the performance terminal used as a reference is not limited to the performance terminal “Facilitatorj.”
  • One of the multiple performance terminals 2 is used as a reference, and the amount of beat deviation from that performance terminal 2 is displayed. You can do it.
  • the field indicating the displacement of the beat with the performance terminal “Facilitator” is not limited to the example displayed on the display section 16 of the controller 1, but for the performance terminal installed in each performance terminal 2. Q may be displayed on the display (not shown)
  • each user can perform a performance with an easy operation of pressing a key with one finger, and the performance terminal rFacilitatorJ shown on the display unit 16 can be used.
  • the operation so as to eliminate the deviation of the performance (beating), it is possible to perform an ensemble while having fun with multiple people.
  • FIG. 12 A is a diagram for explaining the example performance mode. Same figure As shown in the figure, the “example” icon is displayed in one of the areas (eg left part) of the main operation window shown in FIG. When this “example” icon is pressed by the facilitator, the normal performance mode is switched to the example performance mode.
  • Figure 1 2 B shows a part of the screen for selecting a performance terminal for the model performance. As shown in the figure, in the sample performance mode, radio buttons for each performance terminal 2 other than those for the facilitator are displayed. The facilitator is a performance terminal where you want to perform a model performance.
  • the radio button (Pianol to Piano5).
  • the performance operation of the selected performance terminal 2 is performed by the performance terminal “Facilitator”, and the musical sound from the performance terminal 2 selected according to the operation of the performance terminal “Facilitator” is regenerated.
  • controller 1 will play a sound on the performance terminal ⁇ PianolJ '' according to the input note message. Transmitting the sound
  • the sound data to be transmitted is the performance part assigned to the performance terminal “Pianol”.
  • a musical tone is generated based on the received pronunciation data.
  • Figure 13 is a flowchart showing the operation of controller 1 in the sample performance mode.
  • the trigger that starts this operation is when the “example” icon is pressed by the facility.
  • a note-on message it is determined whether or not a note-on message has been received (s 1 1). This determination is repeated until a note-on message is received.
  • the note-on message is a note-on message sent from the performance terminal for the facilitator (s 1 2). If the received note-on message is not a note message sent from the performance terminal for the facilitator, the process is repeated from the received judgment (s 1 2 ⁇ s 1 1).
  • the performance data of the performance part assigned to the designated performance terminal is sequenced (each (Determine the pitch, length, etc.) (si 3). The designated performance terminal is selected by the facilitator as described above.
  • the performance part is automatically assigned simply by instructing the participation Q (attendance) or non-participation (absence) of each performance terminal.
  • the performance part and the performance part of each participant can be assigned easily and flexibly. Also, since the performance part of each performance terminal can be changed manually, performance can be performed on performance terminals that are different from the initial settings of each performance part.
  • the performance part is automatically assigned simply by instructing participation (attendance) or non-participation (absence) of each performance terminal. Therefore, the performance part is between the guide role and each participant. Allocation of firewood can be done easily and flexibly. Also, since the performance part of each performance terminal can be changed manually, each performance part can be played on a performance terminal different from the default setting. An example can be given on the performance terminal for the qualifier.

Abstract

ガイド役と各参加者との間で演奏パートの割り当てが簡易かつ柔軟に行うことができる合奏システムを提供する。「setting」フィールド内にはそれぞれの演奏端末(Facilitator,Piano1~5)が表示されており、各演奏端末毎に出欠を選択するプルダウンメニューと、演奏パートを割り当てるラジオボタンが表示されている。生徒の出欠に応じて出欠のプルダウンメニューが選択入力され、演奏曲データが選択されると、コントローラ1はその演奏曲データのパート割り当てテーブルを読み出して、出席が選択された演奏端末のそれぞれに演奏パートを割り当てる。また、演奏パートをマニュアルで各演奏端末に割り当てることもできる。

Description

明 細 書 合奏システム 技術分野
本発明は、 楽器の操作に不慣れな者であっても容易に合奏に参加でき る合奏システムに関し、 特にガイ ド役と各参加者との演奏パー トの割り 当てを簡易、 かつ柔軟にした合奏システムに関する。 背景技術
従来よ り 、 演奏者の操作に対して楽音を発生する電子楽器が知られて いる。 このよ う な電子楽器は、 例えばピアノ等をモデルと しており 、 自 然楽器のピアノ と同様の演奏操作を行う ものが一般的であった。 また、 この様な電子楽器では、 演奏の上達に熟練を要し、 演奏の習熟に時間が かかるものである。
しかし、 近年は楽器の操作に不慣れな者が容易に演奏するこ とができ る楽器を実現するこ とが望まれている。 また、 演奏者が一人で演奏を楽 しむだけでなく 、 多数の演奏者が参加して合奏を実現するこ とができる 楽器の実現が望まれている。
そこで、 楽器の操作に不慣れな複数の使用者が容易に演奏に参加でき る電子楽器と して、 例えば特開 2 0 0 0 - 2 7 6 1 4 1 号公報の電子楽 器が提案されている。
この電子楽器は、 複数の使用者が簡易な操作 (手で振る操作) で合奏 を行う こ とができ る。 また、 この電子楽器においては、 子機 (操作子) を親機に接続し、 あらかじめ 1 曲分の演奏情報を送信する。 この際に親 機は、 フロ ッ ピーディ スクに記録されている割当指示データに基づいて 各子機の演奏パー トを割り 当てる。 このよ うな場合、 一度親機から子機 へ演奏情報が送信されて しま う と、 送信済みの演奏パー トはその子機で しか演奏できなかった。
また、 各子機の使用者は、 親機のデモ演奏に合わせて演奏を行ってい た。 しかし、 複数人が同時にリハビリ テーショ ン等の活動を行う場合、 所定の人数 (例えば 5人程度) で 1 つのグループを形成し、 ファシリ テ —タ (ガイ ド役) が各参加者をガイ ドするこ とが多い。 上記電子楽器に おいては、お手本となる人間の演奏に合わせて演奏'を行う こ とができず、 ファシリ テータがお手本演奏を示すこ と もできなかった。
本発明の目的は、 ガイ ド役と各参加者との間で演奏パー トの割り 当て が簡易かつ柔軟に行う こ とができる合奏システムを提供するこ とにある。 発明の開示
上記目的を達成するために、 本発明の合奏システムは、 演奏操作を行 うための少なく と も 1 つの演奏操作子を各々備える複数の演奏端末と、 少なく と も 1 つの音源と、 前記複数の演奏端末および前記少なく と も 1 つ音源に接続され、 各演奏端末を制御するコン ト ローラ と、 からなる合 奏システムであって、 前記コン ト ローラは、 複数の演奏パー トからなる 演奏曲データ と、 各演奏パー ト毎に割り 当てられる演奏端末の識別情報 を記載した割り 当て リ ス トを記憶する記憶手段と、 合奏に参加する演奏 端末及び合奏に参加しない演奏端末を指定し、 かつ合奏する演奏曲デー タを選択するための操作手段と、 前記操作手段によ り演奏曲データが選 択されたときに、 前記割り 当てリ ス 卜に基づいて演奏端末のそれぞれに 演奏パー トを割り 当てる演奏パー ト割り 当て手段であって、 合奏に参加 しない演奏端末を合奏に参加する別の演奏端末に代えて、 当該合奏に参 加しない演奏端末に割り 当てられた演奏パー トを当該合奏に参加する別 の演奏端末に割り 当てるものと、 各演奏端末の演奏操作子の操作態様に 応じて、 その演奏端末に割り 当てられている演奏パー トを読み出し、 当 該読み出した演奏パー トのデータを前記音源に出力する演奏制御手段と、 を備えるこ と を特徴とする。 '
本発明では、 使用者がコン ト ローラの操作手段を用いて、 合奏に参加 する演奏端末と参加しない演奏端末を選択する。 また、 合奏する演奏曲 データを選択する。 演奏曲データは、 複数の演奏パー トからなり 、 それ ぞれの演奏パー トを割り 当てる演奏端末の識別情報が リ ス トに記載され ている。 使用者が演奏曲データを選択すると、 コ ン ト ローラは、 リ ス ト を読み出して各演奏パー トを合奏に参加する演奏端末に割り 当てる。 そ の後、 使用者は演奏の開始を指示し、 演奏端末の演奏操作子で演奏操作 を行う。 演奏端末の演奏操作子は、 例えば電子ピアノ の鍵盤である。 い ずれか一つの鍵盤を打鍵する と操作信号がコン ト ローラに送信される。 コ ン ト ローラは受信した操作信号に基づいて、 その演奏端末に割り 当て た演奏パー トの発音指示を音源に送信する。 音源は発音指示に応じて楽 音を発音する。
好ま しく は、 前記コ ン ト ローラは、 さ らに、 通常の演奏モー ドからお 手本演奏モー ドへ切り替えるモー ド切替手段と、 前記お手本演奏モー ド において、 前記複数の演奏端末からお手本演奏の対象となる少なく と も 1 つの演奏端末を選択する選択手段とを備え、 前記選択手段によ り選択 された演奏端末の演奏操作はガイ ド役用演奏端末で実行され、 当該ガイ ド役用演奏端末の演奏操作に応じて当該選択された演奏端末から楽音を 再生する。
この好ま しい態様によれば、 ファシリテータ (ガイ ド役) のお手本演 奏を各使用者が手元の演奏端末で聴く こ とができる。
好ま しく は、 前記音源は、 前記複数の演奏端末の各々に内蔵され、 前 記コン ト ローラの演奏制御手段は、 前記読み出した演奏パー トのデータ を、 その演奏パー 卜が割り 当てられている演奏端末に内蔵された音源に 出力する。
この好ま しい態様によれば、 コン ト ローラは演奏端末から受信した操 作信号に基づいて、 その演奏端末に割り 当てられている演奏パー トを読 み出し、 当該読み出した演奏パー 卜のデータを当該演奏端末に内蔵され た音源に送信する。 演奏端末の内蔵音源は受信した発音指示に応じて楽 音を発音する。 これによ り 、 各演奏端末において、 各自の演奏パー トが 発音される と となる。
好ま しく は 、 前記演奏パー ト割り 当て手段は、 前記操作手段からの演
■奪 ― 卜の割り 当ての変更指示に従って、 各演奏端末への演奏パ一 トの 割り 当てを変更する。
この好ま しい態様によれば、 使用者はマニュアルで各演奏端末の演奏 パ一 トを変更するこ とができる。 これによ り 、 各演奏パー トを初期設定 とは異なる演奏端末で自由に演奏するこ とができる。
好ま しく は 、 前記演奏パー ト割り 当て手段は、 前記割り 当て リ ス トに 記載されてレ、る演奏端末が合奏に参加しない演奏端末であった場合に、 当該合奏に参加しない演奏端末に割り 当てられている演奏パー トをガイ ド役用演奏 末に割り 当てる。
この好ま しい態様によれば、 ファシリ テータ用の演奏端末には複数の 演奏パー トが割り 当てられる。
好ま しく は 、 前記記憶手段は、 互いに関連する複数の演奏パー トを 1 つのグノレ一プと して規定するテ一ブノレをさ らに記憶し、 前記演奏パー ト 割り 当て手段は、 前記割り 当てリ ス 卜に記載されている演奏端末が合奏 に参加しない演奏端末であった場合に、 当該合奏に参加しない演奏端末 に割り 当てられている演奏パー トを、 前記テーブルを参照して同一ダル ープに属する他の演奏パー トが割り 当てられている演奏端末に割り 当て る。
この好ま しい態様によれば、 合奏に参加しない演奏端末に割り 当てら れている演奏パー ト (例えば ドラムス) を、 前記テーブルを参照して同 一グループに属する他の演奏パー ト (例えばベース) が割り 当てられて いる演奏端末に割り 当てる。 これによ り 、 音色や役割関係の近い演奏パ — トが割り 当てられている他の演奏端末に代替するこ とができる。 関連 する複数の演奏パ一 卜 と しては、 ドラムス とベースの演奏パー 卜の他、 複数の弦楽器の演奏パー トゃ複数の管楽器の演奏パー トなどがある。 図面の簡単な説明
図 1 は、 演奏システムの構成を示すブロ ック図である。
図 2 は、 コン ト ローラの構成を示すブロ ック図である。
図 3 は、 演奏端末の構成を示すブロ ック図である。
図 4 は、 楽曲データの一例を示す図である。
図 5 は、 パー ト割り 当てテーブルの一例を示す図である。
図 6 は、 メ イ ン操作ウィ ン ドウを示す図である。
図 7 は、 M I D I ポー ト選択ウィ ン ドウを示す図である。
図 8は、 合奏ウィ ン ドウを示す図である。
図 9 Aは、 拍打数のセッティ ングを示す図であり 、 図 9 Bは、 打鍵タ イ ミ ングとなる拍子 ( 1拍目、 3拍目) と打鍵タイ ミ ングとならない拍 子 ( 2拍目、 4拍目) のアイ コ ン表示例を示す図である。
図 1 0は、 現在の拍打の推移を示す図である。
図 1 1 は、 演奏端末 「Facilitator」 との拍打のズレを説明する図であ る。
図 1 2 Aは、 お手本演奏モー ドを説明する図であり 、 図 1 2 Bは、 お 手本演奏を行う演奏端末を選択する画面の一部である。
図 1 3 は、 お手本演奏モー ド時におけるコ ン ト ローラの動作を示すフ ローチャー トである。 発明を実施するための最良の形態
以下、 本発明の実施の形態を図面を参照しながら詳説する。
図 1 は、 合奏システムの構成を示すブロ ック図である。 同図に示すよ う に、 この合奏システムは、 コ ン ト ローラ 1 と 、 コ ン ト ローラ 1 に M l D I イ ンタ フェースボッ ク ス 3 を介して接続される複数 (同図において は 6台) の演奏端末 2 A〜 2 F とを備えている。 複数の演奏端末 2 のう ち、 演奏端末 2 Aはファ シリ テータ (ガイ ド役) 用演奏端末となり 、 演 奏端末 2 B〜 2 Fは参加者 (生徒役) 用演奏端末となる。 演奏端末 2 B 〜 2 Fを使用する 5人の参加者は、 常に同じ演奏端末 2 を使用する。 こ れによ り 、 ファシリ テ一タは演奏端末で参加者の識別が可能となる。
コ ン ト ローラ 1 は、 例えばパーソナルコ ンピュータによ り構成され、 このパーソナルコ ンピュータに搭載されたソフ 卜 ゥヱァによって各演奏 端末 2 の制御およびデータの収集を行う。 コ ン ト ローラ 1 は複数パ一 ト からなる演奏曲データを記憶している。 これらのパー トは、 1 または複 数のメ ロディパー ト、 リ ズムパー ト、 及び伴奏パー ト等からなっている。 コン ト ローラ 1 は、 各パー ト (または複数のパー ト) の発音データをそ れぞれの演奏端末 2 に送信する、 後述の通信部 1 1 を備えている。
演奏端末 2は、 使用者が演奏操作を行う と と もに、 この使用者の演奏 操作に応じた楽音を発生するものであり 、 例えば電子ピアノ等の電子鍵 盤楽器によ り構成される。 本実施の形態では、 コ ン ト ローラ 1 と U S B で接続されている M I D I イ ンタ フェースボッ ク ス 3 を用い、 各演奏端 末 2 を別々 の M I D I 系統で接続している。 同図においては演奏端末 2 Aをファシリ テ一タ用の演奏端末とする。 ファシリ テ一タ用の演奏端末 の指定はコン ト ローラ 1 にて行う。 なお、 演奏端末 2は電子ピアノ に限 ちず、 電子ギター等の他の形態の電子楽器であってもよい。 無論、 外観 上は自然楽器に限らず単にボタン等の操作子を備えた端末であってもよ なお、 演奏端末 2が音源を内蔵する必要はなく 、 独立した音源をコン ト ロ一ラ 1 に接続してもよレ、。 この場合、 コン ト ローラ 1 に接続する音 源の数は 1 つであってもよいし、 演奏端末 2 と同じ数であってもよレ、。 演奏端末 2 と同じ数の音源を接続する場合、 コン トローラ 1 はそれぞれ の音源と演奏端末 2 を対応付けて演奏曲データの各パ一 トを割り 当てる よ う にすればよレ、。
この合奏システムは、 コン ト ローラ 1 が記憶している演奏曲データの 複数の演奏パー ドを、 複数の演奏端末 2 にそれぞれ割り 当て、 各演奏端 末 2が独自に割り 当てられた演奏パー 卜の自動演奏を進めて.いく。 使用 者が演奏端末 2 を用いて演奏操作 (例えば電子ピアノ の鍵盤を打鍵) を 行う と、 コ ン ト ローラ 1 にテンポと タイ ミ ングの指示が送信される。 コ ン ト ローラ 1 は、 入力されたテンポと タイ ミ ングの指示に基づいてその 演奏端末 2 に割り 当てた演奏パー トの各音符の発音指示を演奏端末 2に 送信する。 演奏端末 2は受信した発音指示に基づいて自動演奏を行う。 各演奏端末 2 を使用する生徒がファシリ テータに合わせてテンポをと る こ とで合奏が成立する。 以下、 コ ン ト ローラ 1 と演奏端末 2 の構成につ いて詳細に説明する。
図 2は、 コン トローラ 1 の構成を示すブロ ック図である。 同図に示す よ う に、 コン ト ローラ 1 は、 通信部 1 1 、 制御部 1 2 、 H D D 1 3 、 R A M 1 4 、 操作部 1 5および表示部 1 6 を備えている。 制御部 1 2 には 通信部 1 1 、 H D D 1 3 、 R A M I 4 、 操作部 1 5および表示部 1 6が 接続されている。
通信部 1 1 は、 演奏端末 2 と通信を行う回路部であり 、 U S Bイ ンタ フエ一ス (不図示) を有してレ、る。 この U S Bイ ンタ フェースには、 M I D I イ ンタ フェースボッ ク ス 3が接続され、 通信部 1 1 はこの M I D I イ ンタフェースボックス 3及ぴ M I D I ケ一ブルを介して 6台の演奏 端末 2 と通信する。 HD D 1 3は、 コン ト ローラ 1 の動作用プロ グラム や、 複数パー トからなる演奏曲データを記憶している。
制御部 1 2 は、 H D D 1 3 に記憶されている動作用プログラムを読み 出してワークメモリ である R AM I 4 に展開 し、 パー ト割り 当て処理 5 0、 シーケンス処理 5 1 、 および発音指示処理 5 2等を実行する。 パー ト割り 当て処理 5 0では、 演奏曲データの各演奏パー トを複数の演奏端 末 2 に割り 当てる。 シーケンス処理 5 1 では、 各演奏端末 2から受信し たテンポ、 タイ ミ ングの指示に応じて演奏曲データの各演奏パー トをシ 一ケンス (各音の音高、 音長等の決定) する。 発音指示処理 5 2では、 シーケンス処理 5 1 で決定した各音の音高、 音長等を発音指示データ と して演奏端末 2 に送信する。
操作部 1 5 は、 使用者 (主にファ シリ テータ) がこの演奏システムの 動作指示を行う ためのものである。 ファ シリ テータは、 操作部 1 5 を操 作し、 例えば演奏する演奏曲データを指定したり 、 各演奏端末 2の演奏 パー トを割り 当てたりする。 表示部 1 6 は、 ディ スプレイ (モニタ.) で あ り 、 フ ァ シリ テータや各参加者はこの表示部 1 6 を見ながら演奏操作 を行う。 詳細は後述するが、 表示部 1 6 には合奏を行うための様々な情 報が表示される。
図 3 は、 演奏端末 2の構成を示すブロ ッ ク図である。 同図に示すよ う に、 演奏端末 2は、 通信部 2 1 、 制御部 2 2、 演奏操作子である鍵盤 2 3 、 音源 2 4、 およびス ピーカ 2 5 を備えている。 制御部 2 2 には通信 部 2 1 、 鍵盤 2 3、 およぴ音源 2 4が接続されている。 また、 音源 2 4 にはス ピーカ 2 5が接続されている。
通信部 2 1 は、 M I D I イ ンタ フェースであり 、 M I D I ケーブルを 介してコ ン ト ローラ 1 と通信する。 制御部 2 2は、 演奏端末 2 を統括的 に制御する。 鍵盤 2 3は、 例えば 6 1鍵や 8 8鍵の鍵数を有し、 5〜 7 オクターブの音域の演奏が可能であるが、 この合奏システムでは鍵を区 別せずにノー トオン Zノー トオフメ ッセージ及び打鍵強さ (Ve l oc i t y) のデータのみを用いる。 すなわち各鍵には、 オン Zオフを検出するセン サと打鍵の さを検出するセンサとが内蔵されており 、 鍵盤 2 3は各鍵 の操作態様 (どの鍵がどのよ うな強さで打鍵されたか等) に応じて操作 信号を制御部 2 2に出力する。 制御部 2 2は、 入力された操作信号に基 づき、 通信部 2 1 を介してコン ト ローラ 1 にノー トオンメ ッセ一ジゃノ ー トオフメ ッセージを送信する。 音源 2 4は、 制御部 2 2 の制御に応じ て楽音波形を生成し、 音声信号と してス ピーカ 2 5に出力する。 ス ピー 力 2 5 は、 音源 2 4から入力された音声信号を再生し、 楽音を発音する。 なお、 上述したよ う に、 音源 2 4 とス ピーカ 2 5 は演奏端末 2 に内蔵し ていなく と もよレ、。 音源 2 4 とス ピーカ 2 5 をコ ン ト ローラ 1 に接続し、 演奏端末 2 と異なる場所から楽音が発音されるよ うにしてもよい。 各演 奏端末 2 と同じ数の音源をコン ト ローラ 1 に接続してもよいが、 単一の 音源を用いてもよい。
上記の動作では、 鍵盤 2 3 を打鍵したと き、 制御部 2 2はノー トオン /ノー トオフメ ッセージをコン ト ローラ 1 に送信 (ローカルオフ) し、 鍵盤 2 3 によるノ一 トメ ッセージではなく 、 コン ト ローラ 1 からの指示 に応じて楽音を発音するが、 演奏端末 2 は上記の様な動作とは別に、 一 般的な電子楽器と して使用するこ と も無論可能である。 鍵盤 2 3 を打鍵 したと き、 制御部 2 2はノー トメ ッセージをコン ト ローラ 1 に送信せず に (ローカルオン) 、 当該ノー トメ ッセージに基づいて音漉 2 4に楽音 を発音するよ う に指示するこ と も可能である。 口一カルオン、 ローカル オフは使用者がコ ン ト ローラ 1 の操作部 1 5 を用いて切替えてもよいし、 演奏端末 2の端末操作部 (図示せず) で切替えてもよい。 また、 一部の 鍵盤のみ口一カルオフ し、 他の鍵盤は口一カルオンとなるよ うに設定す るこ と も可能である。
次に、 上記のよ う な合奏システムを用いて合奏を行う ための動作につ いて説明する。 使用者 (特にファ シリ テ一タ) は、 コ ン ト ローラ 1 の操 作部 1 5 を用いて演奏曲データを選択する。 演奏曲データは M I D I 規 格に基づいて予め作成されたデータ (スタンダー ド M I D I ) であり 、 コン ト ローラ 1 の H D D 1 3に記憶されている。 この楽曲データの一例 を図 4 に示す。 同図に示すよ う に、 演奏曲データは、 複数の演奏パー ト からなり 、 各演奏パー トを識別する識別情報と、 各演奏パー トの演奏情. 報と を含んでいる。
使用者が演奏曲データの選択を行う と、 コン ト ローラ 1 は接続されて いる各演奏端末 2のそれぞれに演奏パー トを割り 当てる。 どの演奏端末 にどの演奏パー トを割り 当てるかは、 予めテ一ブルを規定しておく。 図 5は、 演奏パー ト割り 当てテーブルの一例を示す図である。 同図に示す よ う に、 演奏パー ト 1 には、 M I D I ポー ト 0 (フ ァ シリ テ一タ用演奏 端末) .が対応しており 、 例えば図 1 においては演奏端末 2 Aに演奏パー ト 1 が割り 当てられる。 M I D I ポー トは M I D I イ ンタ フェースボッ クス 3のポ一 ト番号を示しており 、 各演奏端末 2はその接続されている M I D I ポー トで識別されている。 以下同様に演奏パ一 ト 2には M I D I ポー ト 1 (ピアノ 1 ) が対応し、 例えば図 1 においては演奏端末 2 B に演奏パー ト 2が割 り 当てられる。 このよ うに、 各演奏端末 2 にそれぞ れ自動的に演奏パー 卜が割り 当てられる。 この.演奏パー ト割り 当てテ一 ブルは事前にファシリテータがコン ト ローラ 1 の H D D 1 3 に登録した ものである。 なお、 ファシリ テータがコ ン ト ローラ 1 の操作部 1 5 を用 いてマニュアル選択するよ う にしてもよい。
なお、 各演奏端末 2が U S Bポー トに接続されている場合は、 各演奏 端末 2 を U S Bポー ト番号で識別するよ う にすればよい。
ファ シリ テ一タが演奏曲データを選択し、 コ ン ト ローラ 1 によ り各演 奏端末 2 に演奏パ一 卜が割り 当てられる と、 ファシリ テータによってコ ン ト ローラ 1 の操作部 1 5 は演奏開始スタ ンバイの指示を入力する。 こ こで言う演奏開始スタ ンバ.ィ とは実際に楽音を発生する意味ではなく 、 コ ン ト ローラ 1 が H D D 1 3 から R A M I 4へ演奏曲データを読み出し て演奏動作を行うための準備状態とするこ とである。
演奏開始スタ ンバイの指示が操作部 1 5 に入力され、 コ ン ト ローラ 1 が演奏準備を行う と、 各演奏端末 2 では演奏が可能となる。 この合奏シ ステムにおいては、 複数の使用者がファシリ テータ (合奏リ ーダ) の演 奏に合わせて演奏操作を行う。 つま り 、 単にお手本演奏(機械デモ演奏) に合わせて演奏するのではなく 、 ファシリ テータの演奏 (人間の演奏) に合わせて各使用者が演奏を行う ので、 実際に合奏をしているという実 感を得るこ とができる。
合奏中における合奏システムの動作について説明する。 各使用者が演 奏端末 2 の操作子 (鍵盤) 2 3 を指で押すと、 制御部 2 2は鍵盤 2 3 を 押した強さに応じてノー トオンメ ッセ一ジをコン ト ロ一ラ 1 に送信する。
'ノートォンメ ッセージには打鍵の強さ(Ve l oc i t y)等の情報が含まれる。 また、 鍵盤 2 3 を元に戻す (指を離す) と、 制御部 2 2 は、 ノー トオフ メ ッセージをコン ト ローラ 1 に送信する。 コン ト ローラ 1 は、 演奏端末 2から受信したノー トオンメ ッセージ及びノー トォフメ ッセージに基づ いて、 その演奏端末 2 に割り 当てた演奏パー トの う ち、 所定長さ分 (例 えば 1拍分) の演奏曲データの各音の音高、 音長等を決定し、その音高、 音長等が決定された演奏曲データを発音指示データ と して演奏端末 2 に 送信する。 発音指示データには、 発音すべきタイ ミ ング、 音長、 強度、 音色、 効果、 音高変化 (ピッチベン ド) や、 テンポ等が含まれる。
コン ト ローラ 1 は,、 ノ一 トオンメ ッセージを受信してからノー トオフ メ ッセ一ジを受信するまでの時間に基づいて上記発音指示データを決定 する。 具体的には、 ノー トオンメ ッセージが入力されたときに、 演奏曲 データの う ち該当する演奏パー トの所定長さ分 ( 1拍分等) の演奏情報 を読み出して発音すべきタイ ミ ング、 音色、 効果、 音高変化等を決定す る。 また、 コン ト ローラ 1 は、 ノー トオンメ ッセージの Ve l o c i t y 情報 かち発音強度を決定する。 演奏曲データの演奏情報には音量を示す情報 が含まれており 、 この音量に Ve l oc i t y 情報を乗算して強度を決定する。 つま り 、 演奏曲データには、 その曲中のボリ ューム表現 (音の強弱) を 考慮した音量情報が予め含まれているが、 各使用者が鍵盤を押した強さ に応じた強弱表現が追加され、 発音強度が決定される。
コン ト ローラ 1 は、 ノー トオフメ ッセージが入力されたと き、 ノー ト オンメ ッセージが入力されてからの時間を測定する。 ノ一 トオフメ ッセ —ジが入力されるまでは、 最初に発音した楽音をそのまま発生し、 ノー トオフメ ッセージが入力されたと きにその拍分のテンポ、 各音の音長を 決定して次の楽音を発音する。
なお、 ノー トオンからノー トオフまでの時間 (Ga t eT i me とする) から 単純にテンポを決定してもよいが、 以下のよ う にしてテンポを決定レて もよい。 すなわち、 複数回(直近から数回前)の打鍵について、 Ga t eT i me の移動平均を算出し、 これに時間による重み付けを行う。 直近の打鍵に ついて最も重み付けを大き く し、 過去の打鍵になるほど重み付けを小さ く する。 このよ う に してテンポを決定する こ と で、 ある打鍵の時のみ GateT i rae が大き く 変化したと しても突然にテンポが変化せず、 曲の流 れに応じて違和感無く テンポ変化を行う こ とができる。
演奏端末 2 の制御部 2 2は、 上記のよ う にコン ト ローラ 1 が決定した 発音指示データを受信し、 音源 2 4 に楽音波形の生成を指示する。 音源 2 4は、 楽音波形を生成し、 ス ピーカ 2 5から楽音を再生する。 各使用 者が鍵盤 2 3 を押す毎に上記の処理が繰り返され、 例えば 1拍毎に鍵盤 2 3 を押すこ とで曲の演奏を行う こ とができる。
なお、 上記のよ うに、 ノ一 トオフメ ッセージが入力されるまでは、 最 初に発音した楽音をそのまま発生するので、 使用者が鍵盤 2 3から指を 戻すまでは同一楽音を鳴ら し続けるこ と とな り 、 この合奏システムにお いては、 音を延ばす演奏表現(フエルマ一タ)を実現するこ とができ る。 また、 上記のよ う にして Ga t eT i me の移動平均によ りテンポを決定す るこ とで、 以下のよ うな演奏表現を実現するこ と もできる。 例えば、 あ る打鍵の時のみ鍵盤 2 3 を短く ボンと押された場合、 その拍分の各音の 音長を短く し、 一方で鍵盤 2 3がゆった り と押された場合その拍分の各 音の音長を長くする。 これによ り 、 テンポは大き く 変化しないが各音の 歯切れをよ く する演奏表現 (スタ ッカー ト) を実現した り 、 テンポを大 き く 変化声せずに音の長さを保つ演奏表現 (テヌー ト) を実現した りす ることができる。
なお、 本実施の形態においては演奏端末 2 A〜 2 Fのいずれの鍵盤 2 3 を打鍵したと してもノー トオンメ ッセ一ジ、 ノー トオフメ クセージが コン ト ローラ 1 に送信されるが、 上記のスタ ッカー トゃテヌー トが効く 鍵盤と効かない鍵盤を分けてもよレ、。 コン ト ローラ 1 は、 特定の鍵盤 (例えば E 3 ) からのノー トオンメ ッセージ、 ノー トオフメ ッセージが 入力された場合のみ、 テンポを保ちながら音長を変化させるよ う にすれ ばよい。 次に、 表示部 1 6 に表示されるユーザイ ンタ フェースについて説明す る。 図 6 は、 表示部 1 6 に表示されるメ イ ン操作ウィ ン ドウである。 こ のウイ ン ドウの上部テキス トフィール ドには使用者が選択した演奏曲デ ータ名が表示される。 「SettingJ フィ ール ド内にはそれぞれの演奏端末 (Facilitator, Pianol〜5) が表示されており 、 各演奏端末毎に出欠を 選択するブルダゥンメニューと、 .演奏パー トを割り 当てるラジオボタン が表示されている。 演奏端末 (Facilitator, Pianol〜5) は、 M I D I インタフェースボックス 3 の M I D I ポー トにそれぞれ対応付けられて いる。 なお、 図 7に示すよ う に、 ファシリ テータがマニュアルで演奏端 末 (Facilitator, Pianol〜5) と対応付ける M I D I ポー トを選択する こ.と も可能である。
出欠のプルダウンメニューは生徒の出欠に応じてファシリ テータが選 択入力する。 ラジオボタ ンは、 演奏曲データにおいて演奏パー トが割り 当てられている演奏端末のみ表示される。
この図における例では、 選択した演奏曲データに演奏パー ト 1 、 2、 3、 および 1 0が設定されており 、 この演奏曲データを選択する と、 上 記図 5のテーブルに従って順に演奏端末 「Facilitator」 、 「PianolJ 、 Γ Piano2j 、 および Γ Piano3j が演奏パー ト 1 、 2、 3 、 および 1 0に 自動的に割り 当てられる。 なお、 同図中では選択した演奏曲データに 4 つの演奏パー トのみが含まれているため、 演奏端末 「FacilitatorJ 、 お よび 「Pianol〜3」 にのみ演奏パー ト力;割り 当てられているが、 例えば演 奏曲データ に 6 つの演奏パー ト が含まれている場合は、 演奏端末 「Facilitator」 および 「Pianol〜5」 のそれぞれに演奏パー トが割り 当 てられる。 M I D I ポー ト (演奏端末) よ り も演奏パー トの数が多い場 合は、 演奏端末 「Facilitator」 に複数の演奏パー トを割り 当てる。 ここ で、 コ ン ト ローラ 1 を操作する使用者 (ファシリ テータ) がラジオボタ ンを選択するこ とで各演奏パー トを好みの演奏端末にマニュアル選択す るこ と も可能である。 また、 「FacilitatorOnly」 のチェ ックボックスを 選択する と全ての演奏パ一 卜が演奏端末 「 Facilitator J に割り 当てられ る。 なお、 プルダウンメニューが 「欠席」 と された演奏端末にはラジオ ボタンが表示されず、 演奏パー トが割り 当てられない。
また、 図 5のテーブルに基づいて自動で演奏パー 卜の割り 当てを行う 場合も 「出席」 「欠席」 のプルダウンメ ニューについて、 「欠席」 が選 択されている場合、 その演奏端末に割り 当てられるべき演奏パー トは演 奏端末 「Facilitator」 に割り 当てられる。 なおこの場合、 「欠席」 の演 奏パー トを音色の近い演奏パー トゃ音楽的な役割関係の近い演奏パー ト (例えば ドラムスに対してベース、 弦楽器群等) が割り 当てられている 他の演奏端末に代替して割り 当てるよ う にしてもよい。 互いに関連する 演奏パー トは予めテーブルによ り規定しておけばよい。
演奏パー トの割り 当て後に、 ウィ ン ドゥ中央左部に表示されている演 奏コン ト ロールボタ ンの う ち Start ボタ ンを押下する と演奏開始スタ ン バイ となり 、 図 8 に示す合奏ウィ ン ドウが表示部 1 6 に表示される。 こ のウィ ン ドウにおいても上部テキス トフィール ドには選択した演奏曲デ ータ名が表示される。 ウイ ン ドウ上部右側には選択している演奏曲デー タの小節数と現在演奏中の小節が表示されている。 ウイ ン ドウ中央上部 に表示されている拍打数フィール ド (BeatSetting) には 1小節内の拍打 数を設定するラジオボタンが表示されている。 同図においては 1小節が 4拍子 4分の曲データについて演奏をするので、 拍打数を 4に設定す る と 1拍毎に打鍵するこ と となる。 また、 図 9 Aに示すよ うに、 この演 奏曲において拍打数 2のラジオボタンを選択する と、 1拍おきに打鍵す るこ と となり 、 1拍目、 3拍目が打鍵タイ ミ ングとなる。 この場合、 コ ン ト ローラ 1 は、 演奏端末 2からノー トオンメ ッセージと ノー トオフメ ッセージが送信される と、 2拍分の発音指示データを返信する。 つま り 、
1回の打键で 2拍分の演奏がされるこ とになる。
図 8 において、 合奏ウィ ン ドウ中央左側には各演奏端末(Facilitator、
Pianol、 Piano2、 Piano3) 毎に現在の小節数、 小節内の拍子数 (小節内 で打鍵すべき回数) 、 および現在の拍打 (現在の打鍵タイ ミ ング) が表 示される。 打鍵すべき回数は同図に示すよ うに内部に数字が記入された 四角状のアイ コンで表示され、 現在の拍打は立体四角状又は太字のアイ コンで表示される。 表示方式は、 この例のアイ コンに限るものではなく 、 他の形状のアイ コンであってもよレ、。 なお、 図 9 Bに示すよ う に、 打鍵 タイ ミ ングとならない拍子 ( 2拍目、 4拍目) は丸数字等、 別の形状の アイ コンに変更して表示する。
使用者が打鍵すると、 現在の拍打は図 1 0 に示すよ う に 1拍ずつ推移 する。 つま り 、 打鍵毎に 1 拍目、 2拍目、 3拍目、 4拍目 と順に立体四 角状又は太字のアイ コンが変更される。 この例における演奏曲データは、 4拍子 / 4分の曲データであるため、 4拍目の次の打鍵を行う と 1拍目 に戻り 、 1小節進行するこ と となる。
図 8 において、 ウイ ン ドウ中央右側には演奏端末 「Facilitator」 との 拍打のズレを示すフィ一ル ドが表示されている。 このフィ一ル ドには縦 方向に複数のライ ン (例えば 5本) が表示され、 それぞれの演奏端末に 対応して横方向にライ ンが表示されている。 また、 それぞれの演奏端末 に対応して丸印が表示されている。 この丸印が演奏端末 「FacilitatorJ との拍打のズレを示す。
図 1 1 は、 演奏端末 「Facilitator」 との拍打のズレを説明する図であ る。 同図に示すよ う に、 演奏端末 「Facilitator」 に対応する丸印は、 縦 方向のライ ンの う ち中心ライ ンに固定して表示される。 各使用者の演奏 端末 (例えば 「Pianol」 ) に対応する丸印は、 演奏端末 「Facilitator」 と の 拍 打 の ズ レ に 応 じ て 左 右 に 移 動 す る 。 例 え ば 演 奏 端 末 「Facilitator」 よ'り も 1小節分 (この例においては 4拍分) 打鍵が遅れ る と、 同図に示すよ う に縦方向のライ ン 1 つ分左方向に丸印が移動する。 半小節分 ( 2拍分) 遅れた場合は縦方向の中心ライ ンから左方向にライ ン間隔の半分だけ丸印が移動する。 一方で、 演奏端末 「Facilitator」 よ り も打鍵が早い場合は丸印が右方向に移動するこ と となる。 同図におい ては中心ライ ンから左右に 2 ライ ン表示されているので、 2小節分の拍 打のズレが表示できるこ と となる.。 2小節以上拍打のズレが発生した場 合は左右端のライ ン上でアイ コンを変更する (例えば四角状のアイ コン に変更する) 。 このよ う にして、 各使用者はファシリ テータ との演奏 ( 拍打) のズレを容易に認識するこ とができる。 なお、 上記例ではライ ン 1 つが 1小節分のズレを表すよ うにしたが、 例えばライ ン 1 つが 1ノ 2 小節や 2小節のズレを表すよ うにしてもよい。
なお、 基準となる演奏端末は演奏端末 「Facilitatorj に限る ものでは ない。 複数の演奏端末 2の う ち、 いずれか 1 つを基準と してその演奏端 末 2 との拍打のズレ量を表示するよ う にしてもよレ、。
また、 上記演奏端末 「Facilitator」 との拍打のズレを示すフィ ール ド は、 コ ン ト ローラ 1 の表示部 1 6 に表示する例に限らず、 各演奏端末 2 に設置した演奏端末用の表示部 (図示せず) に表示するよ う にしてもよ い Q
以上のよ う に して、 各使用者は指一本で鍵盤を押すと い う容易な操 件 で演奏 を 行 う こ と が で き 、 表示部 1 6 に示 さ れ る 演奏端末 rFacilitatorJ との演奏 (拍打) のズレをなく すよ う に操作を行う こ と で、 複数人で楽しみながら合奏を行う こ とができる。
また、 この合奏システムは、 変形例と して以下のよ う な動作を行う こ とができる。 図 1 2 Aは、 お手本演奏モー ドを説明する図である。 同図 に示すよ う に、 「お手本」 アイ コンが、 図 6 に示したメイ ン操作ウィ ン ドウのいずれかの領域 (例えば左部等) に表示される。 ファシリ テータ によ り 、 この 「お手本」 アイ コ ンが押下される と、 通常の演奏モー ドか らお手本演奏モー ドへ切り替わる。 図 1 2 Bは、 お手本演奏を行う演奏 端末を選択する画面の一部である。 同図に示すよ うに、 お手本演奏モー ドにおいては、 ファシリ テ一タ用以外の各演奏端末 2に対するラジオボ タンが表示される。 フ ァ シリ テ一タは、 お手本演奏を行いたい演奏端末
(Pianol〜Piano5)のラジォボタ ンを選択する。お手本演奏モー ドでは、 選択された演奏端末 2の演奏操作は演奏端末 「Facilitator」 で行う こ と となり 、 演奏端末 「Facilitator」 の操作に応じて選択された演奏端末 2 かち楽音を再生ずる。 例えば図 1 2 Bのよ うに、 Pianol が選択され、 演 奏端末 「Facilitator」 の鍵盤が打鍵される と、 コ ン ト ローラ 1 は入力さ れたノー トメ ッセージに応じて演奏端末 「PianolJ に発音データを送信 する。 送信する発音データは、 演奏端末 「Pianol」 に割り 当てた演奏パ ー トである。 演奏端末 rPianolJ においては、 受信した発音データに基 づいて楽音を発音する。 これによ り 、 ファシリ テータのお手本演奏を各 使用者が手元の演奏端末で聴く こ とができる。 なお、 上記例では、 ラジ オボタンで単一の演奏端末を選択してお手本演奏を行う例を示したが、 同時に複数の演奏端末を選択してお手本演奏を行う よ う にしてもよい。 また、 全演奏端末を選択するこ と も可能である。
このお手本演奏モー ド時の合奏システムの動作について詳細に説明す る。 図 1 3は、 お手本演奏モー ド時のコン ト ローラ 1 の動作を示すフロ 一チャー トである。 ファ シリ テ一タによ り 「お手本」 アイ コ ンが押下さ れるこ とがこの動作を開始する ト リ ガとなる。
まず、ノー トオンメ ッセージが受信されたか否かを判断する( s 1 1 )。 ノ一 トオンメ ッセージが受信されるまではこの判断を繰り返す。 ノー ト オンメ ッセージが受信された場合、 このノー トオンメ ッセージがファシ リ テータ用の演奏端末から送信されたノー トオンメ ッセージであるか否 かを判断する ( s 1 2 ) 。 受信されたノー トオンメ ッセージがファシリ テ一タ用の演奏端末から送信されたノ一トメ ッセージでなければ受信判 断から処理を繰り返す ( s 1 2→ s 1 1 ) 。 一方、 受信されたノー トォ ンメ ッセージがファシリ テータ用の演奏端末から送信されたノー トメ ッ セージであれば、 指定されている演奏端末に割り 当てた演奏パー トの演 奏曲データをシーケンス (各音の音高、 音長等の決定) する ( s i 3 ) 。 指定演奏端末は、 上述したよ う にファシリ テータが選択する。 ファシリ テータが、 「お手本」 アイ コンを押下したと きは初期状態で指定演奏端 末と して P i ano 1 が選択されているものとする力 図 1 2 A中の押下され た 「お手本」 アイ コンに対応する演奏端末が指定演奏端末と して選択さ れてもよい。 その後、 指定演奏端末に発音データを送信する ( s 1 4 ) 。 以上のよ う にして、 本実施の形態の合奏システムは、 各演奏端末の参 力 Q (出席) 、 不参加 (欠席) を指示するだけで演奏パー トが自動的に割 り 当てられるので、 ファシリ テ一タ と各参加者の演奏パー トの割り 当て が簡易かつ柔軟に行う こ とができる。 また、 マ ユアルで各演奏端末の 演奏パ一 トを変更するこ とができるので、 各演奏パー ト 初期設定と異 なる演奏端末でも演奏できる。 産業上の利用可能性
本発明によれば、 各演奏端末の参加 (出席) 、 不参加 (欠席) を指示 するだけで演奏パー トが自動的に割り 当てられるので、 ガイ ド役と各参 加者との間で演奏パー 卜の割り 当てが簡易かつ柔軟に行う こ とができる。 また、 マニュアルで各演奏端末の演奏パー トを変更する こ とができるの で、 各演奏パー トを初期設定と異なる演奏端末でも演奏できるので、 フ ァシリ テータ用の演奏端末でお手本を示すこ とができる。

Claims

請 求 の 筠 囲
1 . 演奏操作を行う ための少なく と も 1 つの演奏操作子を各々備える複 数の演奏端末と、 少なく と も 1 つの音源と、 前記複数の演奏端末および 前記少なく と も 1 つ音源に接続され、 各演奏端未を制御する コン ト 口一 ラ と、 からなる合奏システムであって、
前記コン ト ローラは、
複数の演奏パー トからなる演奏曲データ と、 各演奏パー ト毎に割り 当 てられる演奏端末の識別情報を記載した割り 当て リ ス トを記憶する記憶 手段と、
合奏に参加する 奏端末及び合奏に参加しない演奏端末を指定し、 か つ合奏する演奏曲デ一タを選択するための操作手段と、
前記操作手段によ り演奏曲データが選択されたと きに、 前記割り 当て リ ス トに基づいて演奏端末のそれぞれに演奏パー トを割り 当てる演奏パ — ト割り 当て手段であって、 合奏に参加しない演奏端末を合奏に参加す る別の演奏端末に代えて、 当該合奏に参加しない演奏端末に割り 当てら れた演奏パ一 トを当該合奏に参加する別の演奏端末に割り 当てる ものと、 各演奏端末の演奏操作子の操作態様に応じて、 その演奏端末に割り 当 てられている演奏パ トを読み出し、 当該読み出した演奏パー トのデ一 タを前記音源に出力する演奏制御手段と、
を備えるこ と を特徴とする合奏システム。
2 . 前記コ ン ト ローラは、 さちに、 通常の演奏モー ドからお手本演奏モ 一ドへ切り替えるモー ド切替手段と、 前記お手本演奏モー ドにおいて、 前記複数の演奏端末からお手本演奏の対象となる少なく と も 1 つの演奏 端末を選択する選択手段と を備え、 前記選択手段によ り選択された演奏 端末の演奏操作はガイ ド役用演奏端末で実行され、 当該ガイ ド役用演奏 端末の演奏操作に応じて当該選択された演奏端末から楽音を再生するこ とを特徴とする請求の範囲第 1項に記載の合奏システム。
3 . 前記音源は、 前記複数の演奏端末の各々に内蔵され、
前記コ ン ト ローラの演奏制御手段は、 前記読み出 した演奏パー トのデ ータを、 その演奏パー トが割り 当てられている演奏端末に内蔵された音 源に出力するこ とを特徴とする請求の範囲第 1 項又は第 2項に記載の合 奏システム。 ,
4 . 前記演奏パー ト割り 当て手段は、 前記操作手段からの演奏パー トの 割り 当ての変更指示に従って、 各演奏端末への演奏パー 卜の割り 当てを 変更するこ と を特徴とする請求の範囲第 1項乃至第 3項のいずれか 1 項 に記載の合奏システム。
5 . 前記演奏パー ト割り 当て手段は、 前記割り 当てリ ス トに記載されて いる演奏端末が合奏に参加しない演奏端末であった場合に、 当該合奏に 参加しない演奏端末に割り 当てられている演奏パー 卜をガイ ド役用演奏 端末に割り 当てるこ とを特徴とする請求の範囲第 1項乃至第 4項のいず れか 1項に記載の合奏システム。
6 . 前記記憶手段は、 互いに関連する複数の演奏パー トを 1 つのグルー プと して規定するテ一ブルをさ らに記憶し、
前記演奏パー ト割り 当て手段は、 前記割り 当て リ ス 卜に記載されてい る演奏端末が合奏に参加しない演奏端末であった場合に、 当該合奏に参 加しない演奏端末に割り 当て られている演奏パー トを、 前記テーブルを 参照して同一グル一プに属する他の演奏パ一 卜が割り 当てられている演 奏端末に割り 当てるこ と を特徴とする請求項 1 乃至請求項 5のいずれか に記載の合奏システム。
PCT/JP2006/315077 2005-09-28 2006-07-24 合奏システム WO2007037068A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/088,306 US7947889B2 (en) 2005-09-28 2006-07-24 Ensemble system
EP06768386A EP1930874A4 (en) 2005-09-28 2006-07-24 ENSEMBLE SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-281060 2005-09-28
JP2005281060A JP4752425B2 (ja) 2005-09-28 2005-09-28 合奏システム

Publications (1)

Publication Number Publication Date
WO2007037068A1 true WO2007037068A1 (ja) 2007-04-05

Family

ID=37899503

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/315077 WO2007037068A1 (ja) 2005-09-28 2006-07-24 合奏システム

Country Status (6)

Country Link
US (1) US7947889B2 (ja)
EP (1) EP1930874A4 (ja)
JP (1) JP4752425B2 (ja)
KR (1) KR100920552B1 (ja)
CN (1) CN101278334A (ja)
WO (1) WO2007037068A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5169328B2 (ja) 2007-03-30 2013-03-27 ヤマハ株式会社 演奏処理装置及び演奏処理プログラム
EP1975920B1 (en) 2007-03-30 2014-12-17 Yamaha Corporation Musical performance processing apparatus and storage medium therefor
US8119898B2 (en) * 2010-03-10 2012-02-21 Sounds Like Fun, Llc Method of instructing an audience to create spontaneous music
US8962967B2 (en) * 2011-09-21 2015-02-24 Miselu Inc. Musical instrument with networking capability
US8664497B2 (en) * 2011-11-22 2014-03-04 Wisconsin Alumni Research Foundation Double keyboard piano system
KR102099913B1 (ko) * 2012-12-28 2020-04-10 삼성전자주식회사 애플리케이션 실행 방법 및 시스템
CN103258529B (zh) * 2013-04-16 2015-09-16 初绍军 一种电子乐器、音乐演奏方法
JP2014219558A (ja) * 2013-05-08 2014-11-20 ヤマハ株式会社 音楽セッション管理装置
US9672799B1 (en) * 2015-12-30 2017-06-06 International Business Machines Corporation Music practice feedback system, method, and recording medium
JP6733221B2 (ja) * 2016-03-04 2020-07-29 ヤマハ株式会社 録音システム、録音方法及びプログラム
WO2018135576A1 (ja) * 2017-01-18 2018-07-26 ヤマハ株式会社 パート表示装置、電子音楽装置およびパート表示方法
US11232774B2 (en) 2017-04-13 2022-01-25 Roland Corporation Electronic musical instrument main body device and electronic musical instrument system
KR102122195B1 (ko) 2018-03-06 2020-06-12 주식회사 웨이테크 인공지능 합주 시스템 및 인공지능 합주 방법
CN110517654A (zh) * 2019-07-19 2019-11-29 森兰信息科技(上海)有限公司 基于钢琴的乐器合奏方法、系统、介质及装置
JP7181173B2 (ja) * 2019-09-13 2022-11-30 株式会社スクウェア・エニックス プログラム、情報処理装置、情報処理システム及び方法
JP7192831B2 (ja) * 2020-06-24 2022-12-20 カシオ計算機株式会社 演奏システム、端末装置、電子楽器、方法、およびプログラム
CN112735360B (zh) * 2020-12-29 2023-04-18 玖月音乐科技(北京)有限公司 一种电子键盘乐器重奏方法和系统
KR102488838B1 (ko) * 2022-03-11 2023-01-17 (주)더바통 악보 기반 다자간 사운드 동기화 시스템 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276141A (ja) 1999-03-25 2000-10-06 Yamaha Corp 電子楽器および電子楽器の制御装置
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003288077A (ja) * 2002-03-27 2003-10-10 Yamaha Corp 曲データ出力装置及びプログラム
JP2005165078A (ja) * 2003-12-04 2005-06-23 Yamaha Corp 音楽セッション支援方法、音楽セッション用楽器

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3808936A (en) 1970-07-08 1974-05-07 D Shrader Method and apparatus for improving musical ability
US3919913A (en) 1972-10-03 1975-11-18 David L Shrader Method and apparatus for improving musical ability
US3823637A (en) 1973-01-19 1974-07-16 Scott J Programmed audio-visual teaching aid
US3895555A (en) 1973-10-03 1975-07-22 Richard H Peterson Teaching instrument for keyboard music instruction
JPS5692567A (en) 1979-12-27 1981-07-27 Nippon Musical Instruments Mfg Electronic musical instrument
JPS5871797U (ja) 1981-11-10 1983-05-16 ヤマハ株式会社 電子楽器
JPS61254991A (ja) 1985-05-07 1986-11-12 カシオ計算機株式会社 電子楽器
US5002491A (en) 1989-04-28 1991-03-26 Comtek Electronic classroom system enabling interactive self-paced learning
US5521323A (en) 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP3528230B2 (ja) * 1994-03-18 2004-05-17 ヤマハ株式会社 自動演奏装置
JP3417662B2 (ja) 1994-06-30 2003-06-16 ローランド株式会社 演奏分析装置
US6448486B1 (en) 1995-08-28 2002-09-10 Jeff K. Shinsky Electronic musical instrument with a reduced number of input controllers and method of operation
US6441289B1 (en) 1995-08-28 2002-08-27 Jeff K. Shinsky Fixed-location method of musical performance and a musical instrument
JP3453248B2 (ja) 1996-05-28 2003-10-06 株式会社第一興商 通信カラオケシステム、カラオケ再生端末
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US7074999B2 (en) * 1996-07-10 2006-07-11 Sitrick David H Electronic image visualization system and management and communication methodologies
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
US5952597A (en) 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
JP3277875B2 (ja) 1998-01-29 2002-04-22 ヤマハ株式会社 演奏装置、サーバ装置、演奏方法および演奏制御方法
JP3371791B2 (ja) * 1998-01-29 2003-01-27 ヤマハ株式会社 音楽教習システムおよび音楽教習装置、ならびに、音楽教習用プログラムが記録された記録媒体
US6348648B1 (en) * 1999-11-23 2002-02-19 Harry Connick, Jr. System and method for coordinating music display among players in an orchestra
JP4117755B2 (ja) 1999-11-29 2008-07-16 ヤマハ株式会社 演奏情報評価方法、演奏情報評価装置および記録媒体
US6198034B1 (en) * 1999-12-08 2001-03-06 Ronald O. Beach Electronic tone generation system and method
JP3678135B2 (ja) 1999-12-24 2005-08-03 ヤマハ株式会社 演奏評価装置および演奏評価システム
JP3758450B2 (ja) 2000-01-10 2006-03-22 ヤマハ株式会社 曲データ作成のためのサーバ装置、クライアント装置及び記録媒体
JP3654143B2 (ja) * 2000-06-08 2005-06-02 ヤマハ株式会社 時系列データの読出制御装置、演奏制御装置、映像再生制御装置、および、時系列データの読出制御方法、演奏制御方法、映像再生制御方法
US6417435B2 (en) 2000-02-28 2002-07-09 Constantin B. Chantzis Audio-acoustic proficiency testing device
US6751439B2 (en) * 2000-05-23 2004-06-15 Great West Music (1987) Ltd. Method and system for teaching music
JP4399958B2 (ja) 2000-05-25 2010-01-20 ヤマハ株式会社 演奏支援装置および演奏支援方法
WO2001093261A1 (en) 2000-06-01 2001-12-06 Hanseulsoft Co., Ltd. Apparatus and method for providing song accompanying/music playing service using wireless terminal
IL137234A0 (en) 2000-07-10 2001-07-24 Shahal Elihai Method and system for learning to play a musical instrument
JP2002073024A (ja) * 2000-09-01 2002-03-12 Atr Media Integration & Communications Res Lab 可搬型音楽生成装置
JP3826697B2 (ja) 2000-09-19 2006-09-27 ヤマハ株式会社 演奏表示装置および演奏表示方法
US6660922B1 (en) 2001-02-15 2003-12-09 Steve Roeder System and method for creating, revising and providing a music lesson over a communications network
US20020165921A1 (en) * 2001-05-02 2002-11-07 Jerzy Sapieyevski Method of multiple computers synchronization and control for guiding spatially dispersed live music/multimedia performances and guiding simultaneous multi-content presentations and system therefor
GB2392545B (en) * 2001-05-04 2004-12-29 Realtime Music Solutions Llc Music performance system
JP3726712B2 (ja) 2001-06-13 2005-12-14 ヤマハ株式会社 演奏設定情報の授受が可能な電子音楽装置及びサーバ装置、並びに、演奏設定情報授受方法及びプログラム
US6483019B1 (en) 2001-07-30 2002-11-19 Freehand Systems, Inc. Music annotation system for performance and composition of musical scores
JP2003256552A (ja) 2002-03-05 2003-09-12 Yamaha Corp 演奏者情報提供方法、サーバ、プログラムおよび記録媒体
JP3852348B2 (ja) 2002-03-06 2006-11-29 ヤマハ株式会社 再生及び送信切替装置及びプログラム
JP3613254B2 (ja) 2002-03-20 2005-01-26 ヤマハ株式会社 楽曲データの圧縮方法
JP3903821B2 (ja) 2002-03-25 2007-04-11 ヤマハ株式会社 演奏音提供システム
US6768046B2 (en) 2002-04-09 2004-07-27 International Business Machines Corporation Method of generating a link between a note of a digital score and a realization of the score
JP3744477B2 (ja) * 2002-07-08 2006-02-08 ヤマハ株式会社 演奏データ再生装置及び演奏データ再生プログラム
US7863513B2 (en) * 2002-08-22 2011-01-04 Yamaha Corporation Synchronous playback system for reproducing music in good ensemble and recorder and player for the ensemble
JP4144296B2 (ja) 2002-08-29 2008-09-03 ヤマハ株式会社 データ管理装置、プログラムおよびデータ管理システム
JP3988633B2 (ja) 2002-12-04 2007-10-10 カシオ計算機株式会社 学習結果表示装置、及びプログラム
US6995311B2 (en) 2003-03-31 2006-02-07 Stevenson Alexander J Automatic pitch processing for electric stringed instruments
JP3894156B2 (ja) 2003-05-06 2007-03-14 ヤマハ株式会社 楽音信号形成装置
US20040237756A1 (en) 2003-05-28 2004-12-02 Forbes Angus G. Computer-aided music education
CN1833265B (zh) 2003-06-25 2010-10-13 雅马哈株式会社 教授音乐的方法
JP2005062697A (ja) 2003-08-19 2005-03-10 Kawai Musical Instr Mfg Co Ltd テンポ表示装置
JP4363204B2 (ja) 2004-02-04 2009-11-11 ヤマハ株式会社 通信端末
JP4368222B2 (ja) 2004-03-03 2009-11-18 株式会社国際電気通信基礎技術研究所 合奏支援システム
US7271329B2 (en) 2004-05-28 2007-09-18 Electronic Learning Products, Inc. Computer-aided learning system employing a pitch tracking line
US7385125B2 (en) 2005-03-23 2008-06-10 Marvin Motsenbocker Electric string instruments and string instrument systems
JP4797523B2 (ja) 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4513713B2 (ja) 2005-10-21 2010-07-28 カシオ計算機株式会社 演奏教習装置および演奏教習処理のプログラム
US20080134861A1 (en) 2006-09-29 2008-06-12 Pearson Bruce T Student Musical Instrument Compatibility Test

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276141A (ja) 1999-03-25 2000-10-06 Yamaha Corp 電子楽器および電子楽器の制御装置
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003288077A (ja) * 2002-03-27 2003-10-10 Yamaha Corp 曲データ出力装置及びプログラム
JP2005165078A (ja) * 2003-12-04 2005-06-23 Yamaha Corp 音楽セッション支援方法、音楽セッション用楽器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1930874A4 *

Also Published As

Publication number Publication date
KR20080039525A (ko) 2008-05-07
EP1930874A4 (en) 2010-08-04
US7947889B2 (en) 2011-05-24
KR100920552B1 (ko) 2009-10-08
EP1930874A1 (en) 2008-06-11
JP4752425B2 (ja) 2011-08-17
CN101278334A (zh) 2008-10-01
JP2007093821A (ja) 2007-04-12
US20090145285A1 (en) 2009-06-11

Similar Documents

Publication Publication Date Title
JP4752425B2 (ja) 合奏システム
JP4797523B2 (ja) 合奏システム
JP5169328B2 (ja) 演奏処理装置及び演奏処理プログラム
US20060230910A1 (en) Music composing device
JP4692189B2 (ja) 合奏システム
US7405354B2 (en) Music ensemble system, controller used therefor, and program
JP3750699B2 (ja) 楽音再生装置
JP4131279B2 (ja) 合奏パラメータ表示装置
US7838754B2 (en) Performance system, controller used therefor, and program
JP4259532B2 (ja) 演奏制御装置、およびプログラム
JP5842383B2 (ja) カラオケシステム及びカラオケ装置
JP4211854B2 (ja) 合奏システム、コントローラ、およびプログラム
KR101842282B1 (ko) 기타 연주시스템과 이를 위한 연주용 기타 및 기타 연주정보 표시방법
JP4218688B2 (ja) 合奏システム、このシステムに用いるコントローラ及びプログラム
JP5011920B2 (ja) 合奏システム
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
JPH09212164A (ja) 鍵盤演奏装置
JP2000122673A (ja) カラオケ装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680036015.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006768386

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12088306

Country of ref document: US

Ref document number: 1020087007481

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE