DE102004027286B4 - Automatisches Musikauswahlsystem in Mobileinheit - Google Patents

Automatisches Musikauswahlsystem in Mobileinheit Download PDF

Info

Publication number
DE102004027286B4
DE102004027286B4 DE102004027286A DE102004027286A DE102004027286B4 DE 102004027286 B4 DE102004027286 B4 DE 102004027286B4 DE 102004027286 A DE102004027286 A DE 102004027286A DE 102004027286 A DE102004027286 A DE 102004027286A DE 102004027286 B4 DE102004027286 B4 DE 102004027286B4
Authority
DE
Germany
Prior art keywords
keyword
section
music
music selection
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102004027286A
Other languages
English (en)
Other versions
DE102004027286A1 (de
Inventor
Masatoshi Amagasaki Nakabo
Norio Yamashita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE102004027286A1 publication Critical patent/DE102004027286A1/de
Application granted granted Critical
Publication of DE102004027286B4 publication Critical patent/DE102004027286B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/27Arrangements for recording or accumulating broadcast information or broadcast-related information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/49Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying locations
    • H04H60/51Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying locations of receiving stations

Abstract

Automatische Musikauswahlvorrichtung in einer mobilen Einheit mit
einem Musikdaten-Speicherabschnitt (25) zum Speichern von Musikdaten in Zuordnung zu einer Vielzahl von Musikstücken,
einem Momentanposition-Detektionsabschnitt (21) zum Detektieren einer Momentanposition der mobilen Einheit,
einem ersten Schlüsselwort-Erzeugungsabschnitt (11) zum Erzeugen eines ersten Schlüsselworts in Ansprechen auf die durch dem Momentanposition-Detektionsabschnitt detektierte Momentanpositions-Information,
einem Umfeld-Detektionsabschnitt (22) zum Detektieren eines Umfelds der mobilen Einheit,
einem zweiten Schlüsselwort-Erzeugungsabschnitt (12) zum Erzeugen eines zweiten Schlüsselworts in Ansprechen auf die durch den Umfeld-Detektionsabschnitt detektierte Umfeldinformation,
einen Kommunikationsabschnitt (17) zum Übertragen des ersten Schlüsselworts und des zweiten Schlüsselworts zu einem Musikauswahlabschnitt (31), der in einem mit einem Netzwerk verbundenen Server (30) installiert ist, über das Netzwerk, sowie zum Empfangen einer Musikauswahlinformation über das Netzwerk zum Anzeigen eines Musikstücks, das durch den Musikauswahlabschnitt (31) in dem Server (30) in Ansprechen auf das erste Schlüsselwort und das zweite Schlüsselwort ausgewählt ist,
einen Wiedergabeabschnitt...

Description

  • Die vorliegende Erfindung betrifft ein automatisches Musikauswahlsystem, das in einem Audiosystem installiert in einer Mobileinheit verwendet wird, insbesondere eine Technik zum geeigneten Ausführen einer Musikauswahl.
  • Üblicherweise ist ein fahrzeug-internes Audiosystem bekannt, das ein Musikstück zufällig aus einer Vielzahl von Musikstücken auswählt, um es abzuspielen. Jedoch ist es für das Audiosystem nicht unwahrscheinlich, dass ein Musikstück abgespielt wird, das für die Bedienung des Fahrzeugs oder die Stimmung des Insassen des Fahrzeugs zu dieser Zeit ungeeignet ist, und demnach wird eine Verbesserung gewünscht. im Hinblick auf hierauf wurde ein fahrzeug-internes Musik-Reproduktionssystem entwickelt, das automatisch ein Musikstück in Zuordnung zu einem bestimmten Distrikt auswählt, beispielsweise einen Song, der lokale Attraktionen herausstellt, und dieses abspielt (siehe beispielsweise relevante Referenz 1).
  • Das Musik-Reproduktionssystem enthält einen Lokalisierungsabschnitt zum Identifizieren der momentanen Position eines Fahrzeugs in Ansprechen auf die Detektionsdaten, die von einer GPS Antenne zugeführt werden, einen MODI Reproduktionsabschnitt zum Reproduzieren von BGM, und eine Festplatte zum Speichern von Musikdaten. Die Festplatte enthält Musikdaten zum Speichern eines Abschnitts, der die MIDI Daten für die BGM Reproduktion speichert, eine abbildungs-bezogene Information zum Speichern eines Abschnitts, der abbildungs-bezogene Information speichert, zum Darstellen von Beziehungen zwischen den Musikdaten und den Distrikten, und einen Distrikt-Informations-Speicherabschnitt zum Anzeigen des Gebiets, zu dem die Momentanposition gehört. Eine CPU ortet den Distrikt anhand der Momentanposition, den der Lokalisierungsabschnitt enthält, er wählt ein Musikstück in Zuordnung zu dem Distrikt unter Bezug auf den Speicherabschnitt für die abbildungs-bezogene Information, und er spielt die Musik zurück.
    • Relevante Referenz 1: Japanische Patentanmeldungs-Offenlegung Nr. 8-248953 .
  • Darüber hinaus offenbart die Druckschrift JP 2001-324 335 A ein Navigationsgerät zur automatischen Musikwiedergabe in einem Fahrzeug entsprechend dem Zustand und der Umgebung des Fahrzeuges, wobei entsprechend eine erste Einheit Schlüsselwörter erzeugt und anhand dieser Schlüsselwörter in einer zweiten Einheit ein dazu passendes Musikstück ausgesucht wird.
  • Weiterhin offenbart Druckschrift JP 2001-189 969 A ein automatisches Musikauswahlsystem für ein fahrzeuggestütztes Kommunikationsterminal, bei dem die von Detektionsmitteln im Fahrzeug ermittelte Informationen einschließlich Position, lokaler Verkehrsposition, lokalem Wetter oder Anwenderinformationen an eine Informationszentrale übertragen werden, die in Abhängigkeit von den übertragenen Informationen Musikstücke auswählt und diese an das Fahrzeug überträgt.
  • Jedoch besteht bei dem üblichen Musik-Reproduktionssystem ein Problem dahingehend, dass es nicht die Fähigkeit zum Anbieten geeigneterer Musik für den Insassen des Fahrzeugs hat, da es lediglich eine grobe Musikauswahl ausführen kann, beispielsweise die Auswahl von Musik in Zuordnung von der Momentanposition des Fahrzeugs.
  • Die vorliegende Erfindung ist zum Lösen des vorgenannten Problems geschaffen. Es ist demnach ein technisches Problem der Erfindung, ein automatisches Musikauswahlsystem mit der Fähigkeit zum Auswählen von Musik zu schaffen, die geeigneter für einen Insassen einer mobilen Einheit ist.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein automatisches Musikauswahlsystem in einer Mobileinheit geschaffen, enthaltend: einen Musikdaten-Speicherabschnitt zum Speichern von Musikdaten entsprechend einer Vielzahl von Musikstücken; einen Momentanposition-Detektionsabschnitt zum Detektieren einer Momentanposition der Mobileinheit; einen ersten Schlüsselwort-Erzeugungsabschnitt zum Erzeugen eines ersten Schlüsselworts in Ansprechen auf Momentanpositionsinformation zum Anzeigen der Momentanposition, detektiert durch den Momentanpositions-Detektionsabschnitt; einen Umfeld-Detektionsabschnitt zum Detektieren eines Umfelds der mobilen Einheit; einen zweiten Schlüsselwort-Erzeugungsabschnitt zum Erzeugen eines zweiten Schlüsselworts in Ansprechen auf Umfeldinformation zum Anzeigen des Umfelds, detektiert durch den Umfeld-Detektionsabschnitt; einen Musikauswahlabschnitt zum Auswählen eines Musikstücks in Ansprechen auf das erste Schlüsselwort, erzeugt durch den ersten Schlüsselwort-Erzeugungsabschnitt, und das zweite Schlüsselwort, erzeugt durch den zweiten Schlüsselwort-Erzeugungsabschnitt; und einen Reproduktionsabschnitt zum Lesen von Musikdaten gemäss dem durch den Musikauswahlabschnitt ausgewählten Musikstück von dem Messdaten-Speicherabschnitt und zum Rückspielen der Musikdaten.
  • Demnach ergibt sich ein Vorteil der Fähigkeit, dass nicht nur ein Musikstück in Zuordnung mit der Momentanposition des Fahrzeugs ausgewählt wird, sondern ebenso ein Musikstück geeigneter für einen Insassen des Fahrzeugs ausgewählt wird, da das Musikstück in Ansprechen auf das Umfeld des Fahrzeugs ausgewählt wird.
  • Die vorliegende Erfindung wird nun unter Bezug auf die beiliegende Zeichnung beschrieben; es zeigen:
  • 1 ein Blockschaltbild zum Darstellen einer Konfiguration eines Beispiels 1 eines je automatischen Musikauswahlsystems;
  • 2 ein Flussdiagramm zum Darstellen des Betriebs des Beispiels 1 eines automatisierten Musikauswahlsystems;
  • 3 ein Flussdiagramm zum Darstellen der Details der ersten Schlüsselwort-Erfassungsverarbeitung, wie in 2 dargestellt;
  • 4 ein Flussdiagramm zum Darstellen der Details der zweiten Schlüsselwort-Erfassungsverarbeitung, wie in 2 dargestellt;
  • 5 ein Flussdiagramm zum Darstellen der Details der dritten Schlüsselwort-Erfassungsverarbeitung, wie in 2 dargestellt;
  • 6 ein Flussdiagramm zum Darstellen der Details der vierten Schlüsselwort-Erfassungsverarbeitung, wie in 2 dargestellt;
  • 7 ein Blockschaltbild zum Darstellen einer Konfiguration einer Ausführungsform 1 des automatisierten Musikauswahlsystems in Übereinstimmung mit der vorliegenden Erfindung; und
  • 8 ein Flussdiagramm zum Darstellen des Betriebs der Ausführungsform 1 des automatischen Musikauswahlsystems in Übereinstimmung mit der vorliegenden Erfindung.
  • Die 1 zeigt ein Blockschaltbild zum Darstellen einer Konfiguration eines Beispiels 1 eines automatisierten bzw. automatischen Musikauswahlsystems. Das automatische Musikauswahlsystem enthält eine CPU 10, ein Navigationssystem 21, Sensoren 22, eine Betriebskonsole 23, einen Zeitgeber 24, einen Musikdaten-Speicherabschnitt 25 und einen Lautsprecher 26.
  • Die CPU 10 steuert das automatische Musikauswahlsystem in seiner Gesamtheit. Die Details der CPU 10 werden später beschrieben.
  • Das Navigationssystem 21, das einen Momentanpositions-Detektionsabschnitt entspricht, enthält einen GPS Empfänger, einen Richtungssensor, einen Distanzsensor, und dergleichen. Das Navigationssystem 21 berechnet seine eigene Position in Ansprechen auf Signale von dem GPS-Empfänger, dem Richtungssensor, dem Distanzsensor und dergleichen. Es zeigt eine Markierung zum Anzeigen der Momentanposition an einer Karte zum Führen des Fahrzeugführers zu einem Ziel an.
  • Zusätzlich zu der vorgenannten originalen Funktion führt das Navigationssystem 21 der CPU 10 die Momentanpositions-Information über die momentane Position zu.
  • Die Sensoren 22 entsprechen einem Umfeld-Detektionsabschnitt. Obgleich in der Zeichnung nicht gezeigt, enthalten die Sensoren 22 einen Mischersensor zum Detektieren eines Anschaltzustand eines Wischers; einen Sonnendachsensor zum Detektieren, dass ein Sonnendach Gebläseöffnung ist; einen Fahrzeuggeschwindigkeitssensor zum Detektieren der Geschwindigkeit des Fahrzeugs, einen Vorderlicht-Sensor zum Detektieren, dass die Vorderlichter erleuchtet sind; einen Nebellampensensor zum Detektieren des Anschaltzustands von Nebellampen; und einen Richtungssignalsensor zum Detektieren des Anschaltzustands der Richtungssignale. Die von den Sensoren 22 ausgegebenen Signale werden der CPU 10 als Umfeldinformation zugeführt.
  • Die Betriebskonsole 23 wird durch einen Anwender verwendet, um das automatische Musikauswahlsystem zu betreiben. Die Betriebskonsole 23 enthält einen Voreinstell-Schalter 23a, der einem Anwenderinformations-Eingabeabschnitt entspricht. Der Voreinstell-Schalter 23a umfasst beispielsweise sechs Voreinstell-Tasten 1–6 (nicht gezeigt), die für die Eingabe eines dritten Schlüsselworts verwendet werden, das später beschrieben wird. Zusätzlich wird der Voreinstell-Schalter 23a ebenso zum Voreinstellen von Radiostationen verwendet. Die Anwenderinformation über die festgelegten Bedingungen der Voreinstell-Tasten 1–6 zum Bilden des Voreinstell-Schalters 23a wird der CPU 10 zugeführt.
  • Der Zeitgeber 24, der einem Zeitgeberabschnitt entspricht, zählt Zeit und Datum. Die momentane Zeit- und Datumsinformation, erhalten durch den Zeitgeber 24, wird der CPU 10 zugeführt.
  • Der Musikdaten-Speicherabschnitt 25 umfasst ein Plattensystem als Beispiel. Der Musikdaten-Speicherabschnitt 25 speichert Daten entsprechend einer Vielzahl von Musikstücken und Musikinformation über deren Attribute. Die Musikinformation enthält Titel der Musikstücke, Künstlernamen, Genres, Worte der Lieder und dergleichen. Die CPU 10 nützt den Musikdaten-Speicherabschnitt 25 zum Wiedergewinnen eines Musikstücks. Zusätzlich werden Musikdaten, die in dem Musikdaten-Speicherabschnitt 25 gespeichert sind, der CPU 10 zugeführt.
  • Der Lautsprecher 26 erzeugt Musik in Ansprechen auf ein von der CPU 10 zugeführtes Musiksignal. Der Lautsprecher 26 wird ebenso zum Bereitstellen von Sprachinformation verwendet, in Ansprechen auf das Signal, das von dem Navigationssystem 21 zugeführt wird.
  • Die CPU 10 enthält einen ersten Schlüsselwort-Erzeugungsabschnitt 11, einen zweiten Schlüsselwort-Erzeugungsabschnitt 12, einen dritten Schlüsselwort-Erzeugungsabschnitt 13, einen vierten Schlüsselwort-Erzeugungsabschnitt 14, einen Musikauswahlabschnitt 15 und einen Reproduzierabschnitt 16, und all diese Abschnitte sind praktisch durch eine Software-Verarbeitung implementiert.
  • Der erste Schlüsselwort-Erzeugungsabschnitt 11 erzeugt ein erstes Schlüsselwort zum Wiedergewinnen, in Ansprechen auf die von dem Navigationssystem 21 zugeführt Momentanpositions-Information. Das erste Schlüsselwort besteht aus einem Wort in Zuordnung zu der Momentanposition. Beispielsweise dann, wenn der erste Schlüsselwort-Erzeugungsabschnitt 11 eine Entscheidung anhand der von dem Navigationssystem 21 zugeführten Momentanposition-Information dahingehend trifft, dass die Momentanposition ein Ufer ist, erzeugt er das erste Schlüsselwort ”Fluss”. Details des ersten Schlüsselworts, erzeugt durch den ersten Schlüsselwort-Erzeugungsabschnitt 11, werden später beschrieben. Das erste durch den ersten Schlüsselwort-Erzeugungsabschnitt 11 erzeugte Schlüsselwort wird dem Musikauswahlabschnitt 15 zugeführt.
  • Der zweite Schlüsselwort-Erzeugungsabschnitt 12 erzeugt ein zweites Schlüsselwort zum Wiedergewinnen, ansprechend auf die Umfeldinformation über das Umfeld des Fahrzeugs, zugeführt von den Sensoren 22. Das zweite Schlüsselwort besteht aus einem Wort in Zuordnung zu dem Umfeld des Fahrzeugs. Beispielsweise dann, wenn der zweite Schlüsselwort-Erzeugungsabschnitt 12 eine Entscheidung dahingehend trifft, dass der Wischer sich in dem Anschaltzustand befindet, ausgehend von dem von dem Wischersensor bei den Sensoren 22 zugeführten Signal, und zwar als Umfeldinformation, erzeugt er das zweit Schlüsselwort ”Regen”. Die Typen des zweiten Schlüsselworts, erzeugt durch den zweiten Schlüsselwort-Erzeugungsabschnitt 12, werden später detailliert beschrieben. Das zweite durch den zweiten Schlüsselwort-Erzeugungsabschnitt 12 erzeugte Schlüsselwort wird dem Musikauswahlabschnitt 15 zugeführt.
  • Der dritte Schlüsselwort-Erzeugungsabschnitt 13 erzeugt ein drittes Schlüsselwort zum Wiedergewinnen, ansprechend auf die Anwenderinformation über die Einstellbedingungen der Voreinstell-Tasten 1–6, zugeführt von dem Voreinstell-Schalter 23a der Betriebskonsole 23. Das dritte Schlüsselwort besteht aus einem Wort, das der Anwender den Voreinstelltasten 1–6 vorab zuweist. Beispielsweise erzeugt dann, wenn der dritte Schlüsselwort-Erzeugungsabschnitt 13 eine Entscheidung dahingehend trifft, dass die Voreinstelltasten 1, zu denen der Anwender ”Pop-Songs” zuweist, angeschaltet ist, dieser das dritte Wort ”Pop-Songs”. Die Typen des dritten Schlüsselworts, erzeugt durch den dritten Schlüsselwort-Erzeugungsabschnitt 13, werden später detailliert beschrieben. Das durch den dritten Schlüsselwort-Erzeugungsabschnitt 13 erzeugte dritte Schlüsselwort wird dem Musikauswahlabschnitt 15 zugeführt.
  • Der vierte Schlüsselwort-Erzeugungsabschnitt 14 erzeugt ein viertes Schlüsselwort zum Wiedergewinnen, in Ansprechen auf die voreingestellte Zeit- und Datumsinformation, zugeführt von dem Zeitgeber 24. Das vierte Schlüsselwort besteht aus einem Wort in Zuordnung zu der momentanen Zeit und dem momentanen Datum. Beispielsweise erzeugt dann, wenn die momentane Zeit von März bis Mai vorliegt, der vierte Schlüsselwort-Erzeugungsabschnitt 14 das vierte Schlüsselwort ”Frühling”. Die Typen des vierten Schlüsselworts, erzeugt durch den vierten Schlüsselwort-Erzeugungsabschnitt 14, werden später detailliert beschrieben. Das vierte Schlüsselwort, erzeugt durch den vierten Schlüsselwort-Erzeugungsabschnitt 14, wird dem Musikauswahlabschnitt 15 zugeführt.
  • Der Musikauswahlabschnitt 15 bewirkt ein Wiedergewinnen der in dem Messdaten-Speicherabschnitt 25 gespeicherten Musikinformation gemäß dem ersten Schlüsselwort von dem ersten Schlüsselwort-Erzeugungsabschnitt 11, dem zweiten Schlüsselwort von dem zweiten Schlüsselwort-Erzeugungsabschnitt 12, dem dritten Schlüsselwort von dem dritten Schlüsselwort-Erzeugungsabschnitt 13 und dem vierten Schlüsselwort von dem vierten Schlüsselwort-Erzeugungsabschnitt 14, und er wählt ein Musikstück aus, das die ersten bis vierten Schlüsselwörter trifft. Der Musikauswahlabschnitt 15 bewirkt ein Zuführen des Namens des ausgewählten Musikstücks zu dem Wiedergabeabschnitt 16.
  • Obgleich der Musikauswahlabschnitt 15 so konfiguriert ist, dass der Musikstücke durch Wiedergewinnen der Musikinformation in Ansprechen auf das erste bis vierte Schlüsselwort auswählt, ist auch eine Konfiguration möglich, die Musikinformation unter Verwendung von zumindest zwei des ersten bis vierten Schlüsselworts wiedergewinnt. Die Zahl der zu verwendenden Schlüsselwörter aus dem ersten bis vierten Schlüsselwort lässt sich geeignet in Übereinstimmung mit der Anforderung des Systems oder des Anwenders bestimmen.
  • Der Wiedergabeabschnitt 16 liest von dem Musikdaten-Speicherabschnitt 25 die Musikdaten entsprechend dem von dem Musikauswahlabschnitt 15 zugeführten Titel, und er erzeugt das Musiksignal. Das durch den Wiedergabeabschnitt 16 erzeugte Musiksignal wird dem Lautsprecher 26 zugeführt. Demnach erzeugt der Lautsprecher 26 die Musik.
  • Nun wird der Betrieb des Beispiels 1 des automatischen Musikauswahlsystems der vorangehenden Konfiguration unter Bezug auf die Flussdiagramme nach 26 beschrieben.
  • Ist das automatische Musikauswahlsystem aktiviert, so startet die automatische Musikauswahlverarbeitung, wie sie in dem Flussdiagramm nach 2 dargestellt ist. Bei der automatischen Musikauswahlverarbeitung wird zunächst das erste Schlüsselwort erfasst (Schritt ST10). Die Erfassungsverarbeitung für das erste Schlüsselwort wird durch den ersten Schlüsselwort-Erzeugungsabschnitt 11 ausgeführt, und dessen Details sind in dem Flussdiagramm nach 3 dargestellt.
  • Bei der ersten Schlüsselwort-Erfassungsbearbeitung erfasst der erste Schlüsselwort-Erzeugungsabschnitt 11 zunächst die Momentanpositions-Information von dem Navigationssystem 21 (Schritt ST30). Hiernach prüft der erste Schlüsselwort-Erzeugungsabschnitt 11, ob die Momentanposition des Fahrzeugs an der Küste bzw. am Ufer vorliegt, in Ansprechen auf die erfasste Momentanpositions-Information (Schritt ST31), durch Vergleichen der Momentanpositions-Information mit der Karteninformation, die von dem Navigationssystem 21 erhalten wird. Entscheidet der erste Schlüsselwort-Erzeugungsabschnitt 11, dass das Fahrzeug an dem Meer/See vorliegt, erzeugt es ”Meer/See” als das erste Schlüsselwort (Schritt ST32). Das erste Schlüsselwort ”Meer/See” wird in einem Speicherbereich für das erste Schlüsselwort (nicht gezeigt) in dem Speicher gespeichert. Entscheidet andererseits der erste Schlüsselwort-Erzeugungsabschnitt 11, dass das Fahrzeug nicht an dem Meer vorliegt, bei dem (Schritt ST31), so überspringt er die Verarbeitung des Schritts ST32.
  • Entsprechend erzeugt dann, wenn die Momentanposition des Fahrzeugs an einem Ufer ist, der erste Schlüsselwort-Erzeugungsabschnitt 11 ”Ufer” bzw. ”Fluss” als das erste Schlüsselwort (Schritte ST33 und ST34), und ist die Momentanposition des Fahrzeugs an dem Rand eines Bergs, so erzeugt der erste Schlüsselwort-Erzeugungsabschnitt 11 ”Berg” als das erste Schlüsselwort (Schritt ST35 und ST36).
  • Zusätzlich erzeugt dann, wenn die Momentanposition des Fahrzeugs Tokio ist, der erste Schlüsselwort-Erzeugungsabschnitt 11 ”Tokio” als das erste Schlüsselwort (Schritte ST37 und ST38), und ist die Momentanposition des Fahrzeugs in Osaka, so erzeugt der erste Schlüsselwort-Erzeugungsabschnitt 11 ”Osaka” als das erste Schlüsselwort (Schritte ST39 und ST40). Die derart erzeugten ersten Schlüsselworte werden jeweils in den ersten Schlüsselwort-Speicherbereich gespeichert. Hiernach kehrt die Folge zu der automatischen Musikauswahlverarbeitung (2) zurück.
  • Der erste Schlüsselwort-Erzeugungsabschnitt 11 kann zahlreiche Typen erster Schlüsselwörter anders als die oben erwähnten ”Meer”, ”Fluss”, ”Berg”, ”Tokyo” und ”Osaka” in Ansprechen auf die Momentanpositions-Information erzeugen.
  • Die automatische Musikauswahlverarbeitung erfasst als nächstes das zweite Schlüsselwort (Schritt ST11). Die zweite Schlüsselwort-Erfassungsverarbeitung wird durch den zweiten Schlüsselwort-Erzeugungsabschnitt 12 ausgeführt, und die Details hiervon sind in dem Flussdiagramm nach 4 dargestellt.
  • Bei der zweiten Schlüsselwort-Erfassungsverarbeitung erfasst der zweite Schlüsselwort-Erzeugungsabschnitt 12 zunächst die Umfeldinformation von den Sensoren 22 (Schritt ST50). Hiernach prüft der zweite Schlüsselwort-Erzeugungsabschnitt 12, ob der Wischer in dem An-Zustand ist oder nicht, in Ansprechen auf das von dem Wischersensor zugeführte Signal, das in der erfassten Umfeldinformation enthalten ist (Schritt ST51). Entscheidet der zweite Schlüsselwort-Erzeugungsabschnitt 12, dass der Wischer in dem Anschaltzustand vorliegt, erzeugt er ”Regen” als das zweite Schlüsselwort (Schritt ST52). Das erzeugte zweite Schlüsselwort ”Regen” wird in dem (nicht gezeigten) zweiten Schlüsselwort-Speicherbereich des Speichers gespeichert. Andererseits überspringt dann, wenn der zweite Schlüsselwort-Erzeugungsabschnitt 12 in dem Schritt ST51 entscheidet, dass der Wischer in dem Ausschaltzustand vorliegt, dieser die Verarbeitung des Schritt ST52.
  • Ähnlich erzeugt dann, wenn das von dem Schiebedachsensor zugeführte Signal ein geöffnetes Schiebedach anzeigt, der zweite Schlüsselwort-Erzeugungsabschnitt 12 ”Schönes Wetter” als zweites Schlüsselwort (Schritte ST53 und ST54). Zeigt das von dem Fahrzeuggeschwindigkeitssensor zugeführte Signal an, dass es über einem vorgegebenen Wert liegt, d. h., bewegt sich das Fahrzeug mit hoher Geschwindigkeit, so erzeugt der zweite Schlüsselwort-Erzeugungsabschnitt 12 ”Hohe Geschwindigkeit” als das zweite Schlüsselwort (Schritt ST55 und ST56). Im Gegensatz hierzu erzeugt dann, wenn das von dem Fahrzeuggeschwindigkeitssensor zugeführte Signal niedriger ist als der vorgegebene Wert, d. h. wenn das Fahrzeug sich in einem Staubereich bewegt, der zweite Schlüsselwort-Erzeugungsabschnitt 12 ”Stau” als das zweite Schlüsselwort (Schritte ST57 und ST58). Die derart erzeugten zweiten Schlüsselworte werden in dem zweiten Schlüsselwort-Speicherbereich gespeichert. Hiernach kehrt die Folge zu der automatischen Musikauswahlverarbeitung zurück (2).
  • Der zweite Schlüsselwort-Erzeugungsabschnitt 12 kann zahlreiche Typen zweiter Schlüsselwörter anders als die vorangenannten ”Regen”, ”Schönes Wetter”, ”Hohe Geschwindigkeit” und ”Stau” in Ansprechen auf die Umfeldinformation erzeugen. Beispielsweise erzeugt der zweite Schlüsselwort-Erzeugungsabschnitt 12 ”Nacht” als zweites Schlüsselwort, wenn der Vorderlichtsensor detektiert, dass das Vorderlicht erleuchtet ist, er erzeugt ”Nebel” als das zweite Schlüsselwort, wenn der Nebellampen-Sensor detektiert, dass die Nebellampe erleuchtet ist, er erzeugt ”Ecke” als das zweite Schlüsselwort, wenn der Richtungssignalsensor detektiert, dass das Richtungssignal angeschaltet ist.
  • Die automatische Musikauswahlverarbeitung erfasst als nächstes das dritte Schlüsselwort (Schritt ST12). Die dritte Schlüsselwort-Erfassungsverarbeitung wird durch den dritten Schlüsselwort-Erzeugungsabschnitt 13 ausgeführt, und Details hiervon sind in dem Flussdiagramm von 5 dargestellt.
  • Bei der dritten Schlüsselwort-Erfassungsverarbeitung erfasst der dritte Schlüsselwort-Erzeugungsabschnitt 13 die Anwenderinformation von dem Voreinstellschalter 23a der Betriebskonsole 23 (Schritte ST60). Hiernach prüft der dritte Schlüsselwort-Erzeugungsabschnitt 13, ob die Voreinstelltaste 1 betätigt ist oder nicht, in Ansprechen auf die erfasste Anwenderinformation (Schritt ST61). Entscheidet der dritte Schlüsselwort-Erzeugungsabschnitt 13, dass der Voreinstellknopf bzw. die Voreinstelltaste 1 betätigt ist, so erzeugt er ”Pop”, zugewiesen zu der Voreinstelltaste 1 als drittes Schlüsselwort (Schritt ST62). Das erzeugte dritte Schlüsselwort ”Pop” wird in dem dritten Schlüsselwort-Speicherbereich (nicht gezeigt) des Speichers gespeichert. Andererseits überspringt dann, wenn der dritte Schlüsselwort-Erzeugungsabschnitt 13 entscheidet, dass die Voreinstelltaste 1 nicht bei dem Schritt ST61 betätigt wird, dieser die Verarbeitung des Schritts ST62.
  • Ähnlich erzeugt dann, wenn der dritte Schlüsselwort-Erzeugungsabschnitt 13 entscheidet, dass die Voreinstelltaste 2 betätigt ist, dieser ”Rock'n Roll”, zugewiesen zu der Voreinstelltaste 2, als das dritte Schlüsselwort (Schritte ST63 und ST64). Entscheidet der dritt Schlüsselwort-Erzeugungsabschnitt 13, dass die Voreinstelltaste 3 betätigt ist, so erzeugt er ”Sänger A”, zugewiesen zu der Voreinstelltaste 3, als das dritte Schlüsselwort (Schritte ST65 und ST66). Entscheidet der dritte Schlüsselwort-Erzeugungsabschnitt 13, dass die Voreinstelltaste 4 betätigt ist, so erzeugt er ”Sänger B”, zugewiesen zu der Voreinstelltaste 4, als das dritte Schlüsselwort (Schritte ST67 und ST68). Entscheidet der dritte Schlüsselwort-Erzeugungsabschnitt 13, dass die Voreinstelltaste 5 betätigt ist, so erzeugt er ”Heilen bzw. Schlichten bzw. Versöhnen”, zugewiesen zu der Voreinstelltaste 5, als das dritte Schlüsselwort (Schritte ST69 und ST70). Entscheidet der dritte Schlüsselwort-Erzeugungsabschnitt 13, dass die Voreinstelltaste 6 betätigt ist, erzeugt er ”Voller Freude bzw. Glücklich”, zugewiesen zu der Voreinstelltaste 6, als drittes Schlüsselwort (Schritte ST71 und ST72). Diese dritten Worte werden jeweils in dem dritten Schlüsselwort-Speicherbereich gespeichert. Hiernach kehrt die Folge zu der automatischen Musikauswahlverarbeitung (2) zurück.
  • Der dritte Schlüsselwort-Erzeugungsabschnitt 3 kann zahlreiche Typen dritter Schlüsselwörter erzeugen, anders als die oben erwähnten ”Pop”, ”Rock'n Roll”, ”Sänger A”, ”Sänger B”, ”Heilen” bzw. ”Versöhnen” und ”Voller Freude bzw. Glücklich”, durch Zuordnen gewünschten Schlüsselwörter zu den Voreinstelltasten 1–6.
  • Als nächstes erfasst die Musikauswahlverarbeitung das vierte Schlüsselwort (Schritt ST13). Die vierte Schlüsselwort-Erfassungsverarbeitung wird durch den vierten Schlüsselwort-Erzeugungsabschnitt 14 ausgeführt, und Details hiervon sind in dem Flussdiagramm nach 6 dargestellt.
  • Bei der vierten Schlüsselwort-Erfassungsverarbeitung erfasst der vierte Schlüsselwort-Erzeugungsabschnitt 14 zunächst Information der vorliegenden Zeiten des vorliegenden Datums von dem Zeitgeber 24 (Schritt ST80). Anschließend prüft der vierte Schlüsselwort-Erzeugungsabschnitt 14, ob das momentane Datum von März bis Mai liegt, ansprechend auf die erfasste Information für die momentane Zeit und das momentane Datum (Schritt ST81). Entscheidet der vierte Schlüsselwort-Erzeugungsabschnitt 14, dass das Datum in dem Bereich von März bis Mai liegt, so erzeugt er ”Frühling” als das vierte Schlüsselwort (Schritt ST82). Das erzeugte vierte Schlüsselwort ”Frühling” wird in dem vierten Schlüsselwort-Speicherbereich (nicht gezeigt) des Speichers gespeichert. Entscheidet andererseits der vierte Schlüsselwort-Erzeugungsabschnitt 14, dass das Datum nicht in dem Bereich von März bis Mai liegt, bei dem Schritt ST81, so überspringt er die Verarbeitung des Schritts ST82.
  • Ähnlich erzeugt dann, wenn das vorliegende Datum von Juni bis April liegt, der vierte Schlüsselwort-Erzeugungsabschnitt 14 ”Sommer” als das vierte Schlüsselwort (Schritte ST83 und ST84). Liegt das momentane Datum von September bis November, so erzeugt der vierte Schlüsselwort-Erzeugungsabschnitt 14 ”Herbst” als das vierte Schlüsselwort (Schritte ST85 und ST86), und er erzeugt ”Winter” als das vierte Schlüsselwort, wenn das vorliegende Datum von Dezember bis Februar liegt (Schritte ST87 und ST88). Andererseits erzeugt dann, wenn die vorliegende Zeit von fünf Uhr bis zwölf Uhr liegt, der vierte Schlüsselwort-Erzeugungsabschnitt 14 ”Morgen” als das vierte Schlüsselwort (Schritt ST89 und ST90). Ähnlich erzeugt dann, wenn die vorliegende Zeit von zwölf bis achtzehn Uhr vorliegt, der vierte Schlüsselwort-Erzeugungsabschnitt 14 ”Nachmittag” als das vierte Schlüsselwort (Schritte ST91 und ST92). Liegt die vorliegende Zeit von achtzehn bis fünf Uhr vor, so erzeugt der vierte Schlüsselwort-Erzeugungsabschnitt 14 ”Nacht” als das vierte Schlüsselwort (Schritte ST93 und ST94). Die vierten Schlüsselworte werden jeweils in dem vierten Schlüsselwort-Speicherbereich gespeichert. Hiernach kehrt die Folge zu der automatischen Musikauswahlverarbeitung (2) zurück.
  • Der viertd Schlüsselwort-Erzeugungsabschnitt 14 kann zahlreiche Typen von vierten Schlüsselworten anders als die oben erwähnten ”Frühling”, ”Sommer”, ”Herbst”, ”Winter”, ”Morgen”, ”Nachmittag” und ”Nacht” in Ansprechen auf die vorliegende Zeitinformation erzeugen.
  • Als nächstes prüft die automatische Musikauswahlverarbeitung, ob sie das Schlüsselwort erfassen kann oder nicht (Schritt ST14), durch Prüfen, ob irgendeines von dem ersten bis vierten Schlüsselwörtern in den Schlüsselwort-Speicherbereichen der ersten bis vierten Schlüsselwort-Erzeugungsabschnitte 1114 gespeichert ist. Bewirkt die automatische Musikauswahlverarbeitung eine Entscheidung, dass sie nicht irgendeines des Schlüsselworte erfassen kann, so kehrt die Folge zu dem Schritt ST10 zurück, um erneut den vorangehenden Betrieb zu wiederholen.
  • Macht andererseits die automatische Musikauswahlverarbeitung bei dem Schritt ST14 eine Entscheidung dahingehend, dass sie irgendeines der Schlüsselwörter erfassen kann, so liest der Musikauswahlabschnitt 15 die Schlüsselworte von den ersten bis vierten Schlüsselauswahl-Speicherbereichen (Schritt ST15). In diesem Fall wird den eingegebenen Schlüsselwörtern eine Priorität zugewiesen, so dass sie zum Wiedergewinnen eines Musikstücks sequentiell in absteigender Ordnung der Priorität verwendet werden.
  • Anschließend gewinnt der Musikauswahlabschnitt 15 ein Musikstück wieder (Schritt ST16). Insbesondere prüft der Musikauswahlabschnitt 15, ob die Musikinformation (die Titel, Künstlernamen, Genres, Worte der Lieder) gespeichert in dem Musikdaten-Speicherabschnitt 25, ein Musikstück enthaltend dieselben Worte wie die bei dem Schritt ST15 eingegebenen Schlüsselworte enthalten.
  • Hiernach prüft der Musikauswahlabschnitt 15, ob ein Titel ausgewählt wird oder nicht (Schritt S17). Entscheidet der Musikauswahlabschnitt 15, dass der Titel nicht ausgewählt wird, so kehrt die Folge zu dem Schritt ST10 zurück, zum Wiederholen desselben Betriebs, wie oben beschrieben.
  • Andererseits prüft dann, wenn der Musikauswahlabschnitt 15 den Titel auswählen kann, dieser, ob er eine Vielzahl von Titeln auswählt oder nicht (Schritt ST18). Wählt der Musikauswahlabschnitt 15 eine Vielzahl von Titeln aus, so bewirkt er das Ausführen der Verarbeitung für den Anwender zum manuellen Auswählen eines der Titel (Schritt ST19). Insbesondere bewirkt der Musikauswahlabschnitt 15 eine Anzeige der ausgewählten Titel an einer nicht gezeigten Anzeigeeinheit, und er lässt den Anwender eine von diesen auswählen. Nach der manuellen Auswahl des Titels bewirkt der Musikauswahlabschnitt 15 das Fortschreiten der Folge zu dem Schritt ST20. Wenn der Musikauswahlabschnitt 15 nicht die Vielzahl der Titel bei dem Schritt ST18 auswählt, d. h. wenn er lediglich ein einziges Musikstück auswählt, überspringt er die Verarbeitung des Schritts ST19.
  • Bei dem Schritt ST20 prüft der Musikauswahlabschnitt 15, ob die Musikdaten entsprechend dem ausgewählten Titel in dem Musikdaten-Speicherabschnitt 25 vorliegen oder nicht. Erfolgt eine Entscheidung dahingehend, dass derartige Musikdaten nicht vorliegen, so kehrt die Folge zu dem Schritt ST10 zurück, zum Wiederholen desselben Betriebs, wie oben beschrieben. Demnach lässt sich die Funktion zum Auswählen der nächsten Musik dann implementieren, wenn die Musikdaten bereits eliminiert sind, wobei lediglich die Musikinformation bleibt.
  • Erfolgt bei dem Schritt ST20 eine Entscheidung dahingehend, dass die Musikdaten vorliegen, so wird das Musikstück abgespielt (Schritt ST21). Insbesondere übergibt der Musikauswahlabschnitt 15 den Titel an den Wiedergabeabschnitt 16. Bei Empfang des Titels liest der Wiedergabeabschnitt 16 die Musikdaten entsprechend dem Titel von dem Musikdaten-Speicherabschnitt 25, er erzeugt das Musiksignal und er führt dieses dem Lautsprecher 25 zu, mit Ausnahme von dem Fall, wo der Wiedergabeabschnitt 16 die zuvor ausgewählte Musik abspielt. Demnach wird das Musikstück, das automatisch ausgewählt ist, über den Lautsprecher 26 produziert. Im übrigen wird dann, wenn das zuvor ausgewählte Musikstück durch den Wiedergabeabschnitt 16 abgespielt wird, das momentane Musikstück mit dem durch den Musikauswahlabschnitt 15 bereitgestellten Titel nach dem Abschluss des vorangehenden Stücks abgespielt.
  • Hiernach kehrt die Folge zu dem Schritt ST10 zurück, zum Wiederholung desselben Betriebs, wie oben beschrieben, wodurch es möglich ist, das nächste Musikstück während dem Abspielen des vorangehenden Musikstücks auszuwählen.
  • Wie oben beschrieben, bewirkt gemäß des Beispiels 1 das automatische Musikauswahlsystem nicht nur die Auswahl der Musik in Zuordnung zu der Momentanposition des Fahrzeugs, sondern es wählt und reproduziert die Musik in Ansprechen auf das Umfeld des Fahrzeugs, auf die Zeit und das Datum, und die Intention des Anwenders. Im Ergebnis kann es ein Musikstück geeigneter für den Insassen des Fahrzeugs auswählen.
  • Die Ausführungsform 1 des automatischen Musikauswahlsystems in Übereinstimmung mit der vorliegenden Erfindung ist so konfiguriert, dass die Musikauswahl durch eine mit dem Internet verbundenen Server erfolgt.
  • Die 7 zeigt ein Blockschaltbild zum Darstellen einer Konfiguration der Ausführungsform 1 des automatischen Musikauswahlsystems in Übereinstimmung mit der vorliegenden Erfindung. Das automatische Musikauswahlsystem ist konfiguriert durch Ergänzen eines Mobiltelefons 27 und eines Servers 1 zu dem Beispiel 1 des automatischen Musikauswahlsystems (1). In 7 sind gleiche oder ähnliche Komponenten gemäß denjenigen des Beispiels 1 des automatischen Musikauswahlsystems anhand derselben Bezugszeichen bezeichnet, und deren Beschreibung ist hier weggelassen.
  • Das Mobiltelefon 27, das einen Kommunikationsabschnitt in Übereinstimmung mit der vorliegenden Erfindung bildet, verbindet die CPU 10 mit dem Internet über eine Funkverbindung. Das Internet entspricht dem Netzwerk in Übereinstimmung mit der vorliegenden Erfindung.
  • Der Server 30 besteht aus einem Server-Computer, der mit dem Internet verbunden ist, und stellt für einen Anwender einen Wiedergewinndienst bereit, und ferner einen Musikdaten-Verteilungsdienst. Der Server 30 enthält einen Musikauswahlabschnitt 31 und einen Musikdaten-Speicherabschnitt 32. Der Musikauswahlabschnitt 31 hat Funktionen gleich zu oder aufwändiger als diejenigen des Musikauswahlabschnitts 15 der CPU 10 des Beispiels 1.
  • Der Musikdaten-Speicherabschnitt 32 des Servers 30 speichert Musikdaten entsprechend einer Vielzahl von Musikstücken und Musikinformation über deren Attribute in derselben Weise wie der Musikdaten-Speicherabschnitt 25. Jedoch enthält der Musikdaten-Speicherabschnitt 32 des Servers 30 in viel größerem Umfang Musik (Musikdaten und Musikinformation) als der Musikdaten-Speicherabschnitt 25. Zusätzlich enthält er einen größeren Umfang und vollständiger Musikinformation als der Musikdaten-Speicherabschnitt 25.
  • Der Musikauswahlabschnitt 31 des Servers 30 sucht die Musikinformation, gespeichert in dem Musikdaten-Speicherabschnitt 32, in Ansprechen auf die ersten bis vierten Schlüsselwörter, übertragen von der CPU 10 über das Mobiltelefon 27 und das Internet, und er bewirkt die Auswahl eines Musikstücks entsprechend den ersten bis vierten Schlüsselwörtern. Der Titel des ausgewählten Musikstücks wird zu der CPU 10 über das Internet und das Mobiltelefon 27 übertragen.
  • Die CPU 10 der Ausführungsform 1 ist konfiguriert durch Entfernen des Musikauswahlabschnitts 15 von der CPU 10 des Beispiels 1 sowie durch Ergänzen eines Steuerabschnitts 17 hierzu. Der Steuerabschnitt 17, der den Kommunikationsabschnitt in Übereinstimmung mit der vorliegenden Erfindung bildet, führt dem Mobiltelefon 27 das erste Schlüsselwort von dem ersten Schlüsselwort-Erzeugungsabschnitt 11 zu, sowie das zweite Schlüsselwort von dem zweiten Schlüsselwort-Erzeugungsabschnitt 12, das dritte Schlüsselwort von dem dritten Schlüsselwort-Erzeugungsabschnitt 13, und das vierte Schlüsselwort von dem vierten Schlüsselwort-Erzeugungsabschnitt 14. Demnach werden die für die Musikauswahl verwendeten Schlüsselwörter zu dem Musikauswahlabschnitt 31 des Servers 30 übertragen. Zusätzlich empfängt der Steuerabschnitt 17 den Titel des ausgewählten Musikstücks, übertragen von dem Musikauswahlabschnitt 31 des Servers 30, über das Internet und das Mobiltelefon 27, und er führt diesen dem Wiedergabeabschnitt 16 zu.
  • Als nächstes wird der Betrieb der Ausführungsform 1 des automatischen Musikauswahlsystems in Übereinstimmung mit der vorliegenden Erfindung unter Bezug auf das in 8 dargestellte Flussdiagramm beschrieben. In der folgenden Beschreibung sind dieselben Verarbeitungsschritte wie diejenigen des Beispiels 1 eines automatischen Musikauswahlsystems anhand derselben Bezugszeichen bezeichnet, und deren Beschreibung wird hier aus Gründen der Einfachheit weggelassen.
  • Wird das automatische Musikauswahlsystem aktiviert, so wird die gemäß dem Flussdiagramm nach 8 dargestellte automatische Musikauswahlverarbeitung durch den Steuerabschnitt 17 gestartet. Bei der automatischen Musikauswahlverarbeitung werden zunächst die ersten bis vierten Schlüsselwörter wie bei dem Beispiel 1 erfasst (Schritte ST10–ST13).
  • Hiernach prüft die automatische Musikauswahlverarbeitung, ob sie das Schlüsselwort erfassen kann oder nicht (Schritt ST14). Bewirkt sie eine Entscheidung dahingehend, dass sie nicht irgendeines der Schlüsselwörter erfassen kann, so kehrt die Folge zu dem Schritt ST10 zurück, zum erneuten Wiederholen der vorangehenden Verarbeitung.
  • Andererseits liest dann, wenn die automatische Musikauswahlverarbeitung bei dem Schritt ST14 eine Entscheidung dahingehend trifft, dass sie irgendeines der Schlüsselwörter erfassen kann, der Steuerabschnitt 14 die Schlüsselwörter von den ersten bis vierten Schlüsselwortspeicherbereichen (Schritt ST15). In diesem Fall wird den eingegebenen Schlüsselwörtern eine Priorität zugewiesen, dass sie zum Wiedergewinnen eines Musikstücks sequentiell in absteigender Ordnung der Priorität verwendet werden.
  • Anschließend bewirkt der Steuerabschnitt 17, dass die Wiedergewinnungsstelle ein Musikstück wiedergewinnt (Schritt ST25). Insbesondere überträgt der Steuerabschnitt 17 die ersten bis vierten Schlüsselwörter, gelesen bei dem Schritt ST15, zu dem Musikauswahlabschnitt 31 des Servers 30 über das Mobiltelefon 27 und das Internet. Der Musikauswahlabschnitt 31 des Servers 30 prüft, ob Musikinformation (die Titel, Künstlername, Genres, Worte der Songs), die in dem Musikdaten-Speicherabschnitt 32 gespeichert sind, ein Musikstück umfassen, das dieselben Worte wie die Schlüsselworte enthält, die von der CPU 10 empfangen werden, und er überträgt die sich ergebende Information an den Steuerabschnitt 17 in der CPU 10 über das Internet und ein Mobiltelefon 27.
  • Anschließend prüft der Steuerabschnitt 17, ob ein Titel ausgewählt ist oder nicht, in Ansprechen auf die bei dem Schritt ST25 erhaltene Information (Schritt ST17). Entscheidet der Steuerabschnitt 17, dass der Titel nicht ausgewählt ist, so kehrt er zu der Folge zu dem Schritt ST10 zurück, zum Wiederholen desselben Betriebs, wie oben beschrieben.
  • Andererseits prüft dann, wenn der Steuerabschnitt 17 eine Entscheidung dahingehend trifft, dass der Titel ausgewählt ist, ob eine Vielzahl von Titeln ausgewählt ist oder nicht (Schritt ST18). Entscheidet der Steuerabschnitt 17, dass eine Vielzahl von Titeln ausgewählt ist, so bewirkt er das Ausführen der Verarbeitung für den Anwender für eine manuelle Auswahl eines der Titel (Schritt ST19). Nach der manuellen Auswahl des Titels bewirkt der Steuerabschnitt 17 ein Fortschreiten der Folge zu dem Schritt ST20. Entscheidet der Steuerabschnitt bei dem Schritt ST18 nicht, dass die Vielzahl der Titel ausgewählt sind, d. h. dann, wenn lediglich ein einziges Musikstück ausgewählt ist, so überspringt der Steuerabschnitt 17 die Verarbeitung des Schritt ST19.
  • Bei dem Schritt ST20 prüft der Steuerabschnitt 17, ob die Musikdaten entsprechend dem ausgewählten Titel in dem Musikdaten-Speicherabschnitt 25 vorliegen oder nicht. Führt er eine Entscheidung dahingehend durch, dass derartige Musikdaten nicht vorliegen, so wird das Herunterladen der Musikdaten ausgeführt (Schritt ST22). Insbesondere bewirkt der Steuerabschnitt 17 ein Herunterladen der Musikdaten und von Musikinformation entsprechend dem ausgewählten Titel von dem Musikdaten-Speicherabschnitt 32 des Servers 30, und er speichert diese in den Musikdaten-Speicherabschnitt 25. Hiernach verzweigt die Abfolge zu dem Schritt ST21.
  • Erfolgt bei dem Schritt ST20 eine Entscheidung dahingehend, dass die Musikdaten vorliegen, oder wird das Herunterlagen der Musikdaten bei dem Schritt ST22 abgeschlossen, so wird das Musikstück abgespielt (Schritt ST21). Demnach wird das automatisch ausgewählte Musikstück von dem Lautsprecher 26 erzeugt. Im übrigen wird dann, wenn das zuvor ausgewählte Musikstück durch den Wiedergabeabschnitt 16 abgespielt wird, das momentane Musikstück mit dem durch den Musikauswahlabschnitt 15 bereitgestellten Titel nach dem Abschluss des vorangehenden Stücks abgespielt.
  • Hiernach wird die Folge zu dem Schritt ST10 zurückgeführt, zum Wiederholen desselben Betriebs, wie oben beschrieben, wodurch es möglich ist, das nächste Musikstück während dem Abspielen des vorangehenden Musikstücks auszuwählen.
  • Wie oben beschrieben, ist die Ausführungsform 1 des automatischen Musikauswahlsystems in Übereinstimmung mit der vorliegenden Erfindung so konfiguriert, dass das Wiedergewinnen eines Musikstücks auf der Grundlage eines Schlüsselworts durch den Server 30 ausgeführt wird. Demnach ist die Wahrscheinlichkeit der Auswahl eines Musikstücks unter Abstimmung des Schlüsselworts erhöht, da es von einer viel größeren Zahl von Musikstücken ausgewählt wird, im Vergleich zu derjenigen, die in dem Musikdaten-Speicherabschnitt 25 des Fahrzeugs gespeichert sind. Zudem kann aufgrund der Tatsache, dass der Umfang der in dem Musikdaten-Speicherabschnitt 32 des Servers 30 gespeicherten Musikinformation größer und vollständiger ist als derjenige, der in dem Musikdaten-Speicherabschnitt 26 gespeichert ist, die vorliegende Ausführungsform 1 automatisch ein Musikstück auswählt, das für den Insassen des Fahrzeugs geeigneter ist.
  • Zusätzlich ist die vorliegende Ausführungsform 1 so konfiguriert, dass dann, wenn Musikdaten nicht in den Musikdaten-Speicherabschnitt 25 mit dem durch den Server 30 ausgewählten Titel verfügbar sind, ein Herunterlagen von Musikdaten von dem Server 30 erfolgt, sowie ein Speichern der Musikdaten in dem Musikdaten-Speicherabschnitt 25 vor dem Abspielen. Demnach kann man dem Insassen des Fahrzeugs ein für das Schlüsselwort geeigneteres Musikstück anbieten.
  • Obgleich die Ausführungsform 1 so konfiguriert ist, dass dann, wenn die Musikdaten mit dem ausgewählten Titel in dem Musikdaten-Speicherabschnitt 25 nicht enthalten sind, diese von dem Server 30 heruntergeladen werden, ist dies nicht wesentlich. Es ist auch eine solche Konfiguration möglich, die das nächste Musikstück wie in dem Beispiel 1 des automatischen Musikauswahlsystems auswählt, wenn Musikdaten mit dem ausgewählten Titel nicht in dem Musikdaten-Speicherabschnitt 25 vorliegen.
  • Obgleich das Beispiel 1 und die Ausführungsform 1 so konfiguriert sind, dass bei einer Auswahl einer Vielzahl von Titeln der Anwender einen von diesen manuell auswählt, ist dies nicht wesentlich. Beispielsweise ist auch eine solche Konfiguration möglich, bei der eine Vielzahl von Musikstücken sequentiell reproduziert wird, wenn eine Vielzahl von Titeln ausgewählt wird.

Claims (5)

  1. Automatische Musikauswahlvorrichtung in einer mobilen Einheit mit einem Musikdaten-Speicherabschnitt (25) zum Speichern von Musikdaten in Zuordnung zu einer Vielzahl von Musikstücken, einem Momentanposition-Detektionsabschnitt (21) zum Detektieren einer Momentanposition der mobilen Einheit, einem ersten Schlüsselwort-Erzeugungsabschnitt (11) zum Erzeugen eines ersten Schlüsselworts in Ansprechen auf die durch dem Momentanposition-Detektionsabschnitt detektierte Momentanpositions-Information, einem Umfeld-Detektionsabschnitt (22) zum Detektieren eines Umfelds der mobilen Einheit, einem zweiten Schlüsselwort-Erzeugungsabschnitt (12) zum Erzeugen eines zweiten Schlüsselworts in Ansprechen auf die durch den Umfeld-Detektionsabschnitt detektierte Umfeldinformation, einen Kommunikationsabschnitt (17) zum Übertragen des ersten Schlüsselworts und des zweiten Schlüsselworts zu einem Musikauswahlabschnitt (31), der in einem mit einem Netzwerk verbundenen Server (30) installiert ist, über das Netzwerk, sowie zum Empfangen einer Musikauswahlinformation über das Netzwerk zum Anzeigen eines Musikstücks, das durch den Musikauswahlabschnitt (31) in dem Server (30) in Ansprechen auf das erste Schlüsselwort und das zweite Schlüsselwort ausgewählt ist, einen Wiedergabeabschnitt (16) zum Lesen von Musikdaten entsprechend dem durch den Musikauswahlabschnitt ausgewählten Musikstück von dem Musikdaten-Speicherabschnitt (25) und zum Abspielen der Musikdaten.
  2. Automatische Musikauswahlvorrichtung in einer mobilen Einheit nach Anspruch 1, ferner mit: einem dritten Schlüsselwort-Erzeugungsabschnitt (13) zum Erzeugen eines dritten Schlüsselworts in Ansprechen auf eine Anwenderinformation, die über einen Anwenderinformations-Eingabeabschnitt (23) eingegeben wird, wobei die Kommunikationsabschnitt (17) ausgelegt ist zum Übertragen auch des dritten Schlüsselworts zu dem Musikauswahlabschnitt (31) in dem Server (30) über das Netzwerk, und zum Empfangen von Musikauswahlinformation über das Netzwerk zum Anzeigen eines Musikstücks, ausgewählt durch den Musikauswahlabschnitt (31) in Ansprechen auf das erste Schlüsselwort, das zweite Schlüsselwort und das dritte Schlüsselwort.
  3. Automatische Musikauswahlvorrichtung in einer mobilen Einheit nach Anspruch 2, ferner mit: einem vierten Schlüsselwort-Erzeugungsabschnitt (14) zum Erzeugen eines vierten Schlüsselworts in Ansprechen auf eine in einen Zeitgeberabschnitt (24) eingegebene Information einer momentanen Zeit und eines momentanen Datums, wobei die Kommunikationsabschnitt (17) ausgelegt ist zum Übertragen auch des vierten Schlüsselworts zu dem Musikauswahlabschnitt (31) in dem Server (30) über das Netzwerk, und zum Empfangen von Musikauswahlinformation über das Netzwerk zum Anzeigen eines Musikstücks, ausgewählt durch den Musikauswahlabschnitt (31) in Ansprechen auf das erste Schlüsselwort, das zweite Schlüsselwort, das dritte Schlüsselwort und das vierte Schlüsselwort.
  4. Automatische Musikauswahlvorrichtung in einer mobilen Einheit nach einem der Ansprüche 1, 2 oder 3, wobei der Wiedergabeabschnitt (16) dann, wenn der Musikdaten-Speicherabschnitt (25) nicht Musikdaten des Musikstücks speichert, die durch den Musikauswahlabschnitt (31) in dem Server (30) ausgewählt sind, Musikdaten von dem Server (30) herunter lädt und die Musikdaten abspielt.
  5. Automatisches Musikauswahlsystem mit einer automatischen Musikauswahlvorrichtung in einer mobilen Einheit nach einem der vorangegangenen Ansprüche und einem Musikauswahlabschnitt (31), der in einem mit einem Netzwerk verbundenen Server (30) installiert ist.
DE102004027286A 2003-06-06 2004-06-04 Automatisches Musikauswahlsystem in Mobileinheit Expired - Fee Related DE102004027286B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003/162667 2003-06-06
JP2003162667A JP2004361845A (ja) 2003-06-06 2003-06-06 移動体における自動選曲システム

Publications (2)

Publication Number Publication Date
DE102004027286A1 DE102004027286A1 (de) 2004-12-30
DE102004027286B4 true DE102004027286B4 (de) 2011-01-20

Family

ID=33487551

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004027286A Expired - Fee Related DE102004027286B4 (de) 2003-06-06 2004-06-04 Automatisches Musikauswahlsystem in Mobileinheit

Country Status (4)

Country Link
US (1) US7132596B2 (de)
JP (1) JP2004361845A (de)
CN (1) CN100394425C (de)
DE (1) DE102004027286B4 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100325023B1 (ko) * 2000-05-18 2002-02-25 이 용 국 다중 채널 수신 장치 및 그 방법
KR100500314B1 (ko) * 2000-06-08 2005-07-11 박규진 인터넷을 이용한 공동 작곡방법 및 시스템과, 이를 이용한 사업방법
US20040254957A1 (en) * 2003-06-13 2004-12-16 Nokia Corporation Method and a system for modeling user preferences
JP2006030414A (ja) * 2004-07-13 2006-02-02 Yamaha Corp 音色設定装置及びプログラム
JP2006030443A (ja) * 2004-07-14 2006-02-02 Sony Corp 記録媒体、記録装置及び方法、データ処理装置及び方法、データ出力装置及び方法
JP2006107693A (ja) * 2004-09-10 2006-04-20 Sony Corp 記録媒体、記録装置、記録方法、データ出力装置、データ出力方法およびデータ配布・流通システム
US20060111621A1 (en) * 2004-11-03 2006-05-25 Andreas Coppi Musical personal trainer
JP2006298245A (ja) * 2005-04-22 2006-11-02 Toyota Motor Corp 車両の警報装置および車両
US20060259758A1 (en) * 2005-05-16 2006-11-16 Arcsoft, Inc. Instant mode switch for a portable electronic device
JP4674505B2 (ja) * 2005-08-01 2011-04-20 ソニー株式会社 音声信号処理方法、音場再現システム
KR100797043B1 (ko) 2006-03-24 2008-01-23 리얼네트웍스아시아퍼시픽 주식회사 사용자 출력 위치 지정 rbt 제공 방법 및 시스템
JP2007280485A (ja) 2006-04-05 2007-10-25 Sony Corp 記録装置、再生装置、記録再生装置、記録方法、再生方法および記録再生方法並びに記録媒体
JP2007280486A (ja) * 2006-04-05 2007-10-25 Sony Corp 記録装置、再生装置、記録再生装置、記録方法、再生方法および記録再生方法並びに記録媒体
US20080079591A1 (en) * 2006-10-03 2008-04-03 Kenneth Chow System and method for indicating predicted weather using sounds and/or music
JP4844355B2 (ja) * 2006-11-09 2011-12-28 日本電気株式会社 ポータブルコンテンツ再生装置、再生システム、コンテンツ再生方法
JP5125084B2 (ja) * 2006-12-11 2013-01-23 ヤマハ株式会社 楽音再生装置
EP1930877B1 (de) * 2006-12-06 2015-11-11 Yamaha Corporation Musikwiedergabegerät an Bord und Musikinformationsverteilungssystem
KR100921584B1 (ko) * 2006-12-06 2009-10-14 야마하 가부시키가이샤 탑재식 음악 재생 장치 및 음악 정보 분배 시스템
KR100922458B1 (ko) * 2006-12-06 2009-10-21 야마하 가부시키가이샤 차량용 악음 발생 장치, 악음 발생 방법 및 프로그램을기록한 컴퓨터로 판독가능한 기록 매체
JP5148119B2 (ja) * 2007-01-18 2013-02-20 株式会社アキタ電子システムズ 音楽選曲再生方法
WO2009007904A1 (en) * 2007-07-12 2009-01-15 Koninklijke Philips Electronics N.V. Providing access to a collection of content items
JP4623124B2 (ja) * 2008-04-07 2011-02-02 ソニー株式会社 楽曲再生装置、楽曲再生方法および楽曲再生プログラム
JP4591557B2 (ja) * 2008-06-16 2010-12-01 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
JP4640463B2 (ja) * 2008-07-11 2011-03-02 ソニー株式会社 再生装置、表示方法および表示プログラム
US8600577B2 (en) * 2008-12-29 2013-12-03 Motorola Mobility Llc Navigation system and methods for generating enhanced search results
US9043148B2 (en) * 2008-12-29 2015-05-26 Google Technology Holdings LLC Navigation system and methods for generating enhanced search results
US8035023B2 (en) * 2009-08-25 2011-10-11 Volkswagen Ag Predictive environment music playlist selection
KR20120117232A (ko) * 2011-04-14 2012-10-24 현대자동차주식회사 차량 내에서의 감성선곡 시스템 및 그 방법
JP5345723B2 (ja) * 2012-09-04 2013-11-20 株式会社アキタ電子システムズ 音楽選曲再生方法
EP3036919A1 (de) 2013-08-20 2016-06-29 HARMAN BECKER AUTOMOTIVE SYSTEMS MANUFACTURING Kft System und verfahren zur klangerzeugung
CN103794205A (zh) * 2014-01-21 2014-05-14 深圳市中兴移动通信有限公司 自动合成适配音乐的方法及设备
US9417837B2 (en) 2014-03-04 2016-08-16 Audi Ag Multiple input and passenger engagement configuration to influence dynamic generated audio application
KR102244965B1 (ko) * 2014-11-04 2021-04-27 현대모비스 주식회사 멀티데이터 방송 수신장치 및 그 제어방법
DE102016008862A1 (de) 2016-07-20 2018-01-25 Audi Ag Verfahren zum Konfigurieren einer sprachgesteuerten Bedienvorrichtung, Bedienvorrichtung mit Sprachsteuerung und Kraftfahrzeug
DE102020106978A1 (de) 2020-03-13 2021-09-16 Audi Aktiengesellschaft Vorrichtung und verfahren zur ermittlung von musik-information in einem fahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08248953A (ja) * 1995-03-07 1996-09-27 Ekushingu:Kk 音楽再生方法及び装置と、これらのための音楽データベースシステム及び音楽データベース
JP2001189969A (ja) * 1999-12-28 2001-07-10 Matsushita Electric Ind Co Ltd 音楽配信方法、音楽配信システム、および車載情報通信端末
JP2001324335A (ja) * 2000-05-15 2001-11-22 Kenwood Corp 車載用ナビゲーション装置及び車載用オーディオ装置の再生方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0786737B2 (ja) * 1989-12-13 1995-09-20 パイオニア株式会社 車載ナビゲーション装置
JPH0786738B2 (ja) * 1989-12-13 1995-09-20 パイオニア株式会社 車載ナビゲーション装置
KR970002795A (ko) * 1995-10-30 1997-01-28 모리 하루오 네비게이션(navigation)장치
JPH09292247A (ja) * 1996-04-25 1997-11-11 Ekushingu:Kk 自動ガイドシステム
DE19852659B4 (de) * 1998-11-16 2009-12-24 Robert Bosch Gmbh Navigation mit Multimedia
CN2370428Y (zh) 1999-05-07 2000-03-22 华南师范大学 温度、湿度及光照度综合检测装置
JP2001183158A (ja) * 1999-12-24 2001-07-06 Pioneer Electronic Corp ナビゲーション装置
CA2298194A1 (en) 2000-02-07 2001-08-07 Profilium Inc. Method and system for delivering and targeting advertisements over wireless networks
JP4588243B2 (ja) * 2001-04-12 2010-11-24 三菱電機株式会社 ナビゲーション装置、ナビゲーション方法及びナビゲーションプログラム
DE10213535A1 (de) * 2002-03-26 2003-10-16 Siemens Ag Vorrichtung zur positionsabhängigen Informationsdarstellung
EP1378912A3 (de) * 2002-07-02 2005-10-05 Matsushita Electric Industrial Co., Ltd. Musiksuchsystem
JP4568506B2 (ja) * 2004-02-05 2010-10-27 パイオニア株式会社 再生制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08248953A (ja) * 1995-03-07 1996-09-27 Ekushingu:Kk 音楽再生方法及び装置と、これらのための音楽データベースシステム及び音楽データベース
JP2001189969A (ja) * 1999-12-28 2001-07-10 Matsushita Electric Ind Co Ltd 音楽配信方法、音楽配信システム、および車載情報通信端末
JP2001324335A (ja) * 2000-05-15 2001-11-22 Kenwood Corp 車載用ナビゲーション装置及び車載用オーディオ装置の再生方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JP 08-248 953 A (Abstract)
JP 08248953 A (Abstract) *
JP 2001-189 969 A (Abstract)
JP 2001189969 A (Abstract) *
JP 2001-324 335 A (Abstract)
JP 2001324335 A (Abstract) *

Also Published As

Publication number Publication date
CN100394425C (zh) 2008-06-11
CN1573748A (zh) 2005-02-02
US20040244568A1 (en) 2004-12-09
US7132596B2 (en) 2006-11-07
JP2004361845A (ja) 2004-12-24
DE102004027286A1 (de) 2004-12-30

Similar Documents

Publication Publication Date Title
DE102004027286B4 (de) Automatisches Musikauswahlsystem in Mobileinheit
EP0290679B1 (de) Einrichtung für Empfang und Verarbeitung von Strassennachrichtenmeldungen
DE69835462T2 (de) Weltweites Zugriffsystem für multimediabezogene Informationen
EP1382200B1 (de) Verfahren zum Abspielen von Audiodaten mit einem Unterhaltungsgerät
CN101163944B (zh) 司机信息系统或导航系统或移动终端设备中的元素的选择方法
DE60037119T2 (de) Elektronische speicherung von musikdaten und von programmen, mit der erkennung von programmsegmenten, wie zum beispiel aufgezeichneten musikvorträgen, und system für die verwaltung und wiedergabe dieser programmsegmente
US20140075306A1 (en) Music search and retrieval system
DE102006035606A1 (de) Verfahren und System zum Erzeugen von Kartendaten und Informationszufuhrvorrichtung
DE10014987A1 (de) Vorrichtung zum Abspielen von Multimediadateien von einem Speicher in einem Autoradio
EP2192693A2 (de) Informations- und Unterhaltungssystem in einem Kraftfahrzeug
DE10136644B4 (de) Navigationssystem für Fahrzeuge
CN110120845B (zh) 电台播放方法与云端服务器
EP1531405B1 (de) Vorrichtung zur Informationssuche, Verfahren zur Informationssuche und Aufzeichnungsmedium zur Speicherung des Informationssuchprogramms
JP4073561B2 (ja) メドレー楽曲の編集方法に特徴を有するカラオケ装置、カラオケホスト装置、通信カラオケシステム
JP2001356779A (ja) 楽曲データ配信方法
CN101432701A (zh) 安装在车辆中的内容文件处理装置
CN111554329A (zh) 音频剪辑方法、服务器及存储介质
US7647341B2 (en) Map editing-and-displaying apparatus, map managing system, map managing method, and map storing medium
JPH0588612A (ja) 地図情報表示装置
JP2009043353A (ja) タイトル付与装置、タイトル付与方法、タイトル付与プログラム、および記録媒体
JP4322736B2 (ja) オーディオ装置
JP2007323792A (ja) 車載用コンテンツファイル処理装置、車載用コンテンツファイル処理方法及びプログラム
JPH08127187A (ja) カラオケ曲の早見本
CN2463916Y (zh) 卫星导航及伴唱组合装置
KR19990070912A (ko) 노래 반주기의 가수사진 표시 방법

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R020 Patent grant now final

Effective date: 20110420

R084 Declaration of willingness to licence
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee