DE69833482T2 - Verfahren und vorrichtung zur bildverarbeitung - Google Patents

Verfahren und vorrichtung zur bildverarbeitung Download PDF

Info

Publication number
DE69833482T2
DE69833482T2 DE69833482T DE69833482T DE69833482T2 DE 69833482 T2 DE69833482 T2 DE 69833482T2 DE 69833482 T DE69833482 T DE 69833482T DE 69833482 T DE69833482 T DE 69833482T DE 69833482 T2 DE69833482 T2 DE 69833482T2
Authority
DE
Germany
Prior art keywords
game
polygons
image processing
camera
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69833482T
Other languages
English (en)
Other versions
DE69833482D1 (de
Inventor
Sega Enterprises Norio HAGA
Sega Enterprises Tadanobu NUMATA
Sega Enterprises Satoshi MIFUNE
Sega Enterprises Makoto YAMAMOTO
Sega Enterprises Kaori YAMAMOTO
Sega Enterprises Masaki Kawasaki-shi YAMASHITA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP9034163A external-priority patent/JP2955989B2/ja
Application filed by Sega Corp filed Critical Sega Corp
Application granted granted Critical
Publication of DE69833482D1 publication Critical patent/DE69833482D1/de
Publication of DE69833482T2 publication Critical patent/DE69833482T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6623Methods for processing data by generating or executing the game program for rendering three dimensional images for animating a group of characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6684Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dynamically adapting its position to keep a game object in its viewing frustrum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Bildverarbeitungsverfahren, das sich zur Verwendung in Bildverarbeitungsvorrichtungen eignet, etwa bei fernsehergeeigneten Spielen, bei denen Figuren (im weiteren Sinne Objekte) sich in einem virtuellen Raum befinden, um ein Fußballspiel oder dergleichen zu spielen, und insbesondere ein Bildverarbeitungsverfahren, um Spiele realistischer und unmittelbarer erscheinen zu lassen, indem verschiedene Verarbeitungen, wie etwa die Steuerung der Blickrichtung einer Figur, die Steuerung des Verhaltens einer Figur und eine so genannte Fogging-Verarbeitung, um die Farben auf dem Bildschirm anzupassen, ausgeführt werden. Außerdem betrifft die vorliegende Erfindung ein Bildverarbeitungsverfahren, das für Spieler besser sichtbare Bilder schafft, indem der Winkel der virtuellen Kamera, welche die sich in einem Spiel entwickelnde Situation überträgt, oder die Orientierung der Objekte, die sich auf dem Spielfeld befinden, in geeigneter Weise gesteuert wird.
  • STAND DER TECHNIK
  • Der Fortschritt bei der neuesten Computertechnologie hat zu einer allgemeinen und weiten Verbreitung von Bildverarbeitungstechniken für fernsehergeeignete Spiele, Simulationsvorrichtungen und dergleichen geführt. Der Entwicklungsstand von Bildverarbeitungsverfahren, die auf realistischere Weise Bildschirminhalte darstellen und Bildschirme anzeigen, ist außerordentlich wichtig bei der Erhöhung des Handelswertes.
  • Die Komponenten fernsehergeeigneter Spiele umfassen beispielsweise Peripheriegeräte, darunter sowohl ein Anzeigebildschirm und Bedieninstrumente wie etwa Spielpads und Joysticks, als auch Prozessoren mit einer CPU, die eine Bildverarbeitung, eine Soundverarbeitung, eine Datenüber tragung von und zu den Peripheriegeräten usw. ausführen, wodurch es möglich ist, mit solchen Bedieninstrumenten interaktive Spiele zu spielen.
  • Spielvorrichtungen, die das Spielen von Fußballspielen ermöglichen, sind eines der Anwendungsgebiete derartiger fernsehergeeigneter Spielkonsolen. Bei solchen Fußballspielen wird ein Fußballstadion mit einem Feld und Zuschauersitzen (Tribünen) auf übliche Weise im dreidimensionalen virtuellen Raum konstruiert, und die Figuren (als Anzeigeobjekte oder Objekte bezeichnet) zweier Mannschaften tragen auf dem Feld ein virtuelles Fußballspiel aus. Im Besonderen wird die Bewegung gemäß den Bediendaten von Spielern berechnet, der Ball, Kollisionen (Treffer), Roboter, das Feld und der dergleichen werden der Reihe nach verarbeitet, und die Spielentwicklung, die die Bedienung durch Spieler widerspiegelt, wird am Bildschirm angezeigt.
  • Da auch das Verhalten der Zuschauer auf den Tribünen ein wichtiges Element ist, das jeweils zu dem Spielumfeld beiträgt, wird häufig auch das Verhalten der Zuschauer verarbeitet. Beispiele für Verfahren zur Steuerung des Verhaltens der Zuschauer umfassen: 1) Verfahren, bei denen ein großer Teil der Bilddaten sich bewegender Zuschauer für jedes Einzelbild bzw. jeden Rahmen vorab in der gleichen Weise wie bei einer Animation (Bewegtbilder) aufbereitet wird und Bilder mit Textur gemäß dem Wettkampfszenario abgebildet und in Bewegtbildern gezeigt werden; und 2) Verfahren, bei denen Polygone, die Zuschauer darstellen, aufbereitet werden, wobei die Polygone gemäß dem Wettkampfszenario bewegt werden.
  • Das Problem, ob die Anzeigebildschirmfarbgebung die wirkliche Helligkeit (wie etwa das Sonnenlicht) jederzeit während des Tages trifft, ist ein weiteres wichtiges Element bei der Verbesserung des Umfeldes oder der Unmittelbarkeit des Spiels. Dies ist ein besonders wichtiges Merkmal von Fußballspielen, da sie häufig im Freien gespielt werden, und es gibt feine Veränderungen in der physikalischen Umgebung in Bezug auf die Helligkeit in Abhängigkeit von den Zeitabschnitten während des Tages, in denen das Fußballspiel ausgetragen wird. Mit anderen Worten: Die Helligkeit ändert sich in Abhängigkeit davon, in welchem Tageszeitabschnitt – vormittags, nachmittags oder abends – und wann genau innerhalb dieser Tageszeitabschnitte das Spiel ausgetragen wird. Ein Verfahren zum Anpassen der Luminanz des Farbbildschirms gemäß dem Tageszeitabschnitt ist bereits bekannt.
  • Jedoch weist die zuvor erwähnte Spielkonsole die folgenden Nachteile im Hinblick auf Spiel-Unmittelbarkeit und -Realismus auf.
  • Erstens können, wobei Fußballspiele als Beispiel genommen werden, bei herkömmlichen Spielkonsolen, wenn Figuren gegeneinander spielen, wobei sie mit dem Ball dribbeln, die Figuren nur dribbeln, während sie in die Richtung schauen, in die sie gerade laufen. Bei tatsächlichen Fußballspielen sieht jedoch der Sportler, der dribbelt, wenn er schießen oder an einen Mitspieler abgeben will, während des Dribbelns in die Richtung, in die er läuft oder in andere Richtungen (sich umsehend), um den richtigen Zeitpunkt der Schüsse zu planen oder nach einer Abspielzone oder nach Mitspielern Ausschau zu halten. D.h. es ist schwierig, das tatsächliche Verhalten von Fußballspielern nur durch Steuern der Laufbewegungen während des Dribbelns in realistischer Weise zu simulieren, und die Bewegungen der Figuren auf dem Anzeigebildschirm sind primitiv und unnatürlich. Die Steuerung der Richtung, in die eine Figur schaut (d.h. die Blickrichtung), ist sowohl für den Spieler, der läuft, während er dribbelt, als auch für andere Spieler, die nicht im Ballbesitz sind, die gleiche. Außerdem drehen Figuren der heimischen Mannschaft normalerweise ihre Gesichter (Blickrichtung) in Abhängigkeit von den Handlungen der Fi guren der gegnerischen Mannschaft. Eine solche Steuerung ist jedoch in der Vergangenheit nicht gemanagt worden.
  • Zweitens, das Verhalten der Zuschauer ist ebenfalls ein wichtiges Element, das die Unmittelbarkeit eines Spiels bestimmt. Jedoch sind in der Vergangenheit unterschiedliche Bewegungen einzelner Zuschauer (realistischeres Verhalten), Einfachheit der Software-Ausgestaltung, Herabsetzung der Rechenbelastung, Verminderung der Speicherkapazität und der gleichen nicht in zufrieden stellender Weise gleichzeitig erreicht worden.
  • In den Fällen, in denen Zuschauer wie in der Vergangenheit mit einer animierten Texturabbildung angezeigt werden, hat die geringe Anzahl von Einzelbildern bzw. Rahmen, die Bewegungen zeigen, eine grobe und unstetige Zuschauerbewegung zur Folge. In dem Bestreben, dies zu vermeiden, wird die Anzahl der Einzelbilder bzw. Rahmen erhöht. Dadurch nehmen die Bilddaten, mit denen umgegangen werden muss, zu, was eine höhere Speicherkapazität erfordert. Außerdem wird die Software-Ausgestaltung komplizierter, und die Rechenbelastung nimmt zu. Wenn die Belastung zu stark zunimmt, wird die Figur-(oder Objekt-)Steuerung behindert, was dazu führt, dass es erforderlich ist, sparsam mit der Zuschauerbelastung umzugehen. Wenn jedoch die Zuschauersteuerung für eine solche Einsparung zurückgefahren wird, ist der Bildschirm, der angezeigt wird, nicht sehr spannend, und es fehlt an Unmittelbarkeit.
  • Andererseits, wenn Zuschauer mit Polygonen angezeigt werden, ist die Anzahl der Zuschauer, die mit Polygonen angezeigt werden können, stark begrenzt, wenn die Belastung berücksichtigt wird, die ihre Steuerung mit sich bringt. Wenn die Rechenbelastung für eine solche Steuerung außer Acht gelassen wird, könnte es möglich sein, einzelne Zuschauer mit Polygonen anzuzeigen und ihre Bewegung individuell zu steuern, aber tatsächlich wäre dies für große Anzahlen von Zuschauern schwierig. Nur besondere (ausgewählte) Hauptzuschauer sollten mit Polygonen angezeigt werden. Genau genommen führen Zuschauer individuell verschiedene Bewegungen aus, aber zuweilen bewegen sie sich auf gleiche Weise in Gruppen. Den Hauptbewegungen der besonderen Zuschauer mangelt es folglich an Begeisterung und Unmittelbarkeit.
  • Drittens sind herkömmliche Vorrichtungen nicht im Stande, den heutigen Anforderungen an Spielkonsolen hinsichtlich einer Steuerung der räumlichen Umgebung, die tatsächliche Helligkeit während des Tages betreffend, gerecht zu werden. Beispielsweise sollte der Anzeigebildschirm der Umgebung der Spieler, die sich an dem Fußballspiel erfreuen, während sie in bestimmten Tageszeitabschnitten während des Vormittags, des Nachmittags oder Abends vor der Spielkonsole sitzen, entsprechen. Wenn jedoch wie bei herkömmlichen Vorrichtungen nur die Luminanz des gesamten Bildschirms angepasst wird, wird der Bildschirm dunkler, wenn die Nacht naht, wodurch es umso schwieriger wird, zu spielen.
  • Viertens, wenn Spiele, die sich im virtuellen dreidimensionalen Raum entfalten, auf einem Bildschirm angezeigt werden, variiert die Spielbarkeit des Spiels in Abhängigkeit von der Kamerablickrichtung, in welcher die virtuelle Kamera, die das Spiel überträgt, die Figuren (oder Objekte) sieht. Außerdem variiert die Spielbarkeit in Abhängigkeit von der Position der virtuellen Kamera. Die dreidimensionale Anzeige von Objekten sollte entsprechend dem Bereich, in dem sich das Spiel entwickelt, herausgestellt werden.
  • Fünftens, wenn Spiele im virtuellen dreidimensionalen Raum auf einem Bildschirm angezeigt werden, sollten der Ansichtspunkt und die Position der virtuellen Kamera zurückgezogen sein, um so viel wie möglich von dem Spielfeld auf dem Bildschirm anzuzeigen, um es Spielern einfacher zu machen, das Spiel zu spielen. Wenn eine solche Verarbeitung gemanagt wird, sind die Linien und Markierungen, die den Bereich des Spielfeldes des Sportspiels angeben, verglichen mit dem gesamten virtuellen Raum schmal, und daher verschwinden sie aufgrund der Bildschirmauflösung. Folglich müssten dickere Linien bereitgestellt werden, um ein solches Verschwinden zu verhindern. Wenn jedoch die Kamera hochzoomt (der Ansichtpunkt nähert sich dem Hauptansichtspunkt), um den Reiz des Spiels zu verstärken, werden besonders dicke Linien angezeigt, die unnatürlich sind.
  • Es ist eine Aufgabe der vorliegenden Erfindung, einen besser sichtbaren Spielbildschirm zu schaffen, wobei die Anzeige von Objekten, die für die Spieler notwendig sind, in einer solchen Weise sichergestellt wird, dass Objekte, die eine besondere Funktion in dem dreidimensionalen virtuellen Spielraum haben, jedoch dazu neigen, bei der Überführung in zweidimensionale Bilder zu verschwinden, nach wie vor auf dem zweidimensionalen Spielbildschirm verbleiben, selbst wenn sie kleiner sind.
  • DARSTELLUNG DER ERFINDUNG
  • Die Bildverarbeitungsvorrichtung der vorliegenden Erfindung ist in den beigefügten Ansprüchen definiert.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • 1 ist ein Blockdiagramm, das die Funktionsstruktur der Spielkonsole in einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist ein schematischer Ablaufplan, der die CPU-Verarbeitung skizziert;
  • 3 veranschaulicht die Winkelberechnung bei der Steuerung der Blickrichtung;
  • 4 veranschaulicht die Winkelberechnung bei der Steuerung der Blickrichtung;
  • 5 veranschaulicht das Erscheinungsbild einer Figur während der Steuerung der Blickrichtung;
  • 6 ist ein schematischer Ablaufplan, der ein Beispiel für die Steuerung der Blickrichtung zeigt;
  • 7 ist ein schematischer Ablaufplan, der zusammen mit 6 ein Beispiel für die Steuerung der Blickrichtung zeigt;
  • 8 veranschaulicht die Datenstruktur der Zuschauerdaten auf der Grundlage von Polygonen;
  • 9 ist ein schematischer Ablaufplan, der ein Beispiel für eine Verarbeitung zur Steuerung des Verhaltens der Zuschauer zeigt;
  • 10 veranschaulicht ein Einzelbild bzw. einen Rahmen in einem Beispiel für die Steuerung des Zuschauerverhaltens;
  • 11 veranschaulicht einen weiteren Rahmen in einem Beispiel für die Steuerung des Zuschauerverhaltens;
  • 12 veranschaulicht einen weiteren Rahmen in einem Beispiel für die Steuerung des Zuschauerverhaltens;
  • 13 veranschaulicht einen weiteren Rahmen in einem Beispiel für die Steuerung des Zuschauerverhaltens;
  • 14 veranschaulicht einen weiteren Rahmen in einem Beispiel für die Steuerung des Zuschauerverhaltens;
  • 15 veranschaulicht einen weiteren Rahmen in einem Beispiel für die Steuerung des Zuschauerverhaltens;
  • 16 veranschaulicht einen weiteren Rahmen in einem Beispiel für die Steuerung des Zuschauerverhaltens;
  • 17 veranschaulicht einen weiteren Rahmen in einem Beispiel für die Steuerung des Zuschauerverhaltens;
  • 18 ist ein schematischer Ablaufplan, der sich auf ein Beispiel für eine Fogging-Steuerung bezieht;
  • 19 veranschaulicht die Tageszeitabschnittseinteilung für die Fogging-Steuerung;
  • 20 veranschaulicht ein Beispiel für eine Bildschirmanzeige basierend auf einer Fogging-Steuerung;
  • 21 veranschaulicht ein weiteres Beispiel für eine Bildanzeige basierend auf einer Fogging-Steuerung;
  • 22 ist eine schematische Darstellung eines Bildes, das infolge der Steuerung der Blickrichtung einer Figur auf dem Bildschirm angezeigt wird;
  • 23 veranschaulicht ein Beispiel für den Gesamtaufbau einer Spielvorrichtung;
  • 24 ist ein Blockdiagramm, das den Schaltungsaufbau der Spielvorrichtung veranschaulicht;
  • 25 veranschaulicht den virtuellen Spielraum, der durch die Spielvorrichtung ausgebildet wird;
  • 26 veranschaulicht den Blickwinkel auf eine Linie, die zwischen der Kameraposition und dem Boden gezogen ist;
  • 27 veranschaulicht ein Verfahren, bei dem die Scheitelpunkte an den Innenseiten von Linien-Polygonen angehoben werden, um die Linie sichtbar zu machen;
  • 28 ist ein Ablaufplan, der das Verfahren veranschaulicht, das verhindert, dass die Linien verschwinden;
  • 29 veranschaulicht die Lagebeziehung zwischen der Kamera und den Scheitelpunkten der Linien-Polygone;
  • 30 veranschaulicht die Lagebeziehung zwischen der Kamera und den Scheitelpunkten der Linien-Polygone;
  • 31 veranschaulicht ein Beispiel für die Daten für die Scheitelpunkte der Linien-Polygone;
  • 32a veranschaulicht die Bewegung eines Spielers vom Betrachter weg und zum Betrachter hin;
  • 32b veranschaulicht die Richtung des Normalenvektors der Kamera zu diesem Zeitpunkt;
  • 33a veranschaulicht die seitliche Bewegung eines Spielers;
  • 33b veranschaulicht die Richtung des Blickrichtungsvektors der Kamera zu diesem Zeitpunkt;
  • 34a veranschaulicht die seitliche Bewegung eines Spielers;
  • 34b veranschaulicht die Richtung des Blickrichtungsvektors der Kamera zu diesem Zeitpunkt;
  • 35 ist ein Ablaufplan, der das Verfahren zum Einstellen des seitlichen Winkels der Kamera darstellt;
  • 36 ist eine Fortsetzung des Ablaufplans, der das Verfahren zum Einstellen des seitlichen Winkels der Kamera veranschaulicht;
  • 37 veranschaulicht einen Fall, in dem der Hauptansichtspunkt der Kamera bei einem Spieler ist;
  • 38 veranschaulicht ein Beispiel für die Einstellung des Kamerawinkels, wenn der Hauptansichtspunkt innerhalb von 8 Metern vom Strafraum ist;
  • 39 veranschaulicht einen Fall, in dem das Vorwärtskommen des Spielers in Richtung des Betrachters erfolgt;
  • 40 veranschaulicht einen Fall, in dem das Vorwärtskommen des Spielers vom Betrachter weg erfolgt;
  • 41 veranschaulicht ein Beispiel für den Blickrichtungsvektor der Kamera, wenn das Vorwärtskommen des Spielers vom Betrachter weg und zum Betrachter hin erfolgt;
  • 42 veranschaulicht ein Beispiel für einen Spieler, der sich nach links bewegt;
  • 43 veranschaulicht die Kamerawinkeleinstellung, wenn sich der Spieler nach links bewegt;
  • 44 veranschaulicht ein Beispiel für den Spieler, der sich nach rechts bewegt;
  • 45 veranschaulicht die Kamerawinkeleinstellung, wenn sich der Spieler nach rechts bewegt;
  • 46 veranschaulicht ein Beispiel für den Fall, in dem der Hauptansichtspunkt der Kamera bei dem Ball ist;
  • 47 veranschaulicht ein Beispiel für die Kamerawinkeleinstellung, wenn der Ball und der Spieler durch mindestens 15 m getrennt sind;
  • 48 veranschaulicht ein weiteres Beispiel für die Kamerawinkeleinstellung, wenn der Ball und der Spieler durch mindestens 15 m getrennt sind;
  • 49 veranschaulicht einen Fall, in dem der Hauptansichtspunkt der Kamera innerhalb von 8 Metern von einem Strafraum ist;
  • 50 veranschaulicht die Kamerawinkeleinstellung, wenn der Hauptansichtspunkt der Kamera innerhalb von 8 Metern von einem Strafraum ist;
  • 51 veranschaulicht einen Fall, in dem der Hauptansichtspunkt nicht innerhalb von 8 Metern von einem Strafraum ist;
  • 52 veranschaulicht die Kamerawinkeleinstellung, wenn der Hauptansichtspunkt nicht innerhalb von 8 Metern von einem Strafraum ist;
  • 53 ist ein Ablaufplan, der die Höhenwinkeleinstellung der Kamera veranschaulicht;
  • 54 veranschaulicht die Höhenwinkeleinstellung der Kamera;
  • 55 ist ein Ablaufplan, der die Kamera-Zoomeinstellung veranschaulicht;
  • 56 veranschaulicht einen Bereich, in dem sich der Spieler auf dem Bildschirm befindet;
  • 57 ist ein Ablaufplan, der ein weiteres Beispiel für ein Objekt, dessen Verschwinden verhindert wird, veranschaulicht;
  • 58 veranschaulicht ein Objekt, dessen Verschwinden verhindert wird;
  • 59 ist ein weiteres Beispiel für Textur, die Zuschauer einschließt;
  • 60 ist ein weiteres Beispiel dafür;
  • 61 ist eine Ausführungsform der Texturanzeige, wenn Polygone, die mit Texturen abgebildet werden, überlagert sind;
  • 62 ist eine Ausführungsform für bewegliche Polygone; und
  • 63 ist eine weitere Ausführungsform.
  • BESTE AUSFÜHRUNGSFORM DER ERFINDUNG
  • Eine erste Ausführungsform der vorliegenden Erfindung ist nachstehend mit Bezug auf 1 bis 22 beschrieben, eine zweite Ausführungsform ist mit Bezug auf 23 bis 31 beschrieben, und eine dritte Ausführungsform ist mit Bezug auf 32 bis 58 beschrieben. Diese Ausführungsformen betreffen Spiele, die als wesentlichen Bestandteil die Bildverarbeitungsvorrichtung der vorliegenden Erfindung enthalten. Die Anwendungssoftware setzt in diesen Fällen als Beispiel Fußballspiel-Software voraus, jedoch können genauso andere Typen von Software implementiert sein, etwa jene für Baseball-Spiele, Softball-Spiele und Basketball-Spiele.
  • 1 zeigt in schematischer Darstellung die Blockstruktur der Spielvorrichtung gemäß der ersten Ausführungsform. Die Spielvorrichtung weist eine CPU (Zentraleinheit) 1 mit ROM 2, RAM 3, eine Eingabevorrichtung 4 und einen Bildausgabeprozessor (VDP: Video Display Processor (engl.)) 5, die alle durch einen Bus an diese CPU 1 angeschlossen sind, auf. Die CPU 1 arbeitet der Reihe nach das zuvor im ROM 2 gespeicherte Spielprogramm ab. Die verschiedenen Prozesse, die sich der vorliegenden Erfindung zuordnen lassen, werden ausgeführt, während der VDP 5 periodisch das im ROM 2 gespeicherte Programm abarbeitet. Drei Prozesse im Zusammenhang mit der vorliegenden Erfindung schließen den Prozess, durch den die Sicht der Figuren auf eine Linie gesteuert wird, den Prozess, durch den das Zuschauerverhalten gesteuert wird, und den Prozess der Fogging-Steuerung in Form einer Farbanpassung des Anzeigebildschirms ein. Neben dem Programm, das von der CPU 1 oder dem VDP 5 verarbeitet wird, werden sowohl Figur-Polygondaten als auch die Programme und unveränderlichen Daten, die für die drei Prozesse erforderlich sind (wie etwa Zuschauer-Polygondaten und Fogging-Referenzdaten), vorher im ROM 2 gespeichert.
  • Der Arbeitsspeicher (RAM) 3 speichert während der Durchführung des Spiels vorübergehend verschiedene Typen von Daten. Die Eingabevorrichtung 4 ist mit einem Instrument, das von dem Spieler bedient wird, wie etwa einem Joystick, ausgestattet und wird verwendet, um die Daten einzugeben, die erforderlich sind, um das Spiel durchzuführen, etwa für die Steuerung der Körperbewegung und Bewegung von Figuren.
  • An den VDP 5 sind ein Video-RAM (VRAM) 6, eine Bildaufbereitungseinrichtung 7 und ein Arbeitsspeicher (RAM) 8 angeschlossen. Polygondaten vom ROM 2 werden im VRAM 6 gespeichert. Die Polygondaten umfassen Koordinatendaten für die Anzahl der Scheitelpunkte, die anzuzeigen sind, und Farbdaten, die in Form von Farbpaletten für die Scheitelpunkte gegeben sind. Der VDP 5 weist einen digitalen Signalprozessor (DSP) auf. Als Antwort auf periodische Synchronisiersignale, wie etwa die Rahmensynchronisierung, löst der VDP 5 ein der Bildverarbeitung zugeordnetes Programm, das im Voraus in den ROM 2 gespeichert wurde, aus und führt es aus. Die Koordinaten der in dem VRAM 6 gespei cherten Polygondaten, die infolge der Verarbeitung durch den VDP 5 umgerechnet und verarbeitet sind, werden an die Bildaufbereitungseinrichtung 7 übermittelt.
  • An die Bildaufbereitungseinrichtung 7 sind ein Textur-ROM 9 und ein Rahmenpufferspeicher 10 angeschlossen. Die Textur wird durch die Bildaufbereitungseinrichtung 7 auf die Polygondaten abgebildet, die eine Koordinatenumrechnung erfahren haben, und wird in Form von Pixeldaten pro Rahmen (Bildschirm) in den Rahmenpufferspeicher 10 geschrieben.
  • Der Rahmenpufferspeicher 10 ist mittels eines D/A-Umsetzers 11 an eine Bildverarbeitungsvorrichtung 12 wie etwa eine Kathodenstrahlröhre angeschlossen. Der D/A-Umsetzer 11 arbeitet als eine ein Videosignal erzeugende Schaltung, die Pixeldaten aus dem Rahmenpufferspeicher 10 liest und sie in Analogsignale umsetzt. Die umgesetzten Daten werden sequenziell in Form von Videosignalen an die Anzeigeeinrichtung 12 gesendet, und es werden Bilder angezeigt.
  • Außerdem umfasst die Spielvorrichtung eine Fogging-Schaltung 13 und eine Echtzeituhr 14, die an den Bus BUS angeschlossen sind. Die Echtzeituhr 14 weist eine Zeit- und Kalenderfunktion auf, so dass reale Tageszeitdaten an die CPU 1 gegeben werden. Wie nachstehend beschrieben ist, weist die Fogging-Schaltung 13 eine so genannte „Fog-Funktion" auf, die umfasst, die Anzeigebildschirmfarbe durch Maskieren unter Verwendung von speziell erstellten Farbdaten, als Fog-Daten bezeichnet, entsprechend der Zeit, zu welcher die Spielvorrichtung betrieben wird (d.h. der tatsächlichen Tageszeit, zu welcher ein Spieler mit der Spielvorrichtung spielt), anzupassen, und erzeugt unter Steuerung durch die CPU 1 Fog-Daten und übermittelt sie dem VDP 5.
  • 2 veranschaulicht ein Beispiel für eine Verarbeitung pro Rahmen, die durch die CPU 1 ausgeführt wird. Erstens empfängt die CPU 1 von der Eingabevorrichtung 4 Figurbewegungsbefehle (wie etwa Laufen, Wenden, Schießen des Balls) entsprechend den Bediendaten von dem Spieler und berechnet die Bewegung der Figuren im dreidimensionalen virtuellen Raum (S1).
  • Dann verarbeitet die CPU 1 den Ball (S2) im dreidimensionalen virtuellen Raum, derart, dass sie etwa die Ballposition vorrückt, und verarbeitet Kollisionen (Treffer) (S3) im dreidimensionalen virtuellen Raum. Die Kollisionsverarbeitung ist die Bestimmung und Verarbeitung verschiedener Arten von Kollisionen, wie etwa jenen zwischen Figuren und dem Boden, zwischen Figuren und zwischen Figuren und dem Ball. Dann verarbeitet die CPU das Verhalten der Figuren (Roboter), das durch den Spieler gesteuert ist, im dreidimensionalen Raum in Reaktion auf Bediendaten von dem Spieler (S4).
  • Außerdem verarbeitet die CPU 1 die Steuerung der Blickrichtung der Figuren (S5). Diese Steuerung der Blickrichtung stellt ein Merkmal der vorliegenden Erfindung in dem Bestreben dar, für eine facettenreichere Figurenbewegung während des Spiels zu sorgen und das Fußballspiel realistischer zu gestalten. Diese Verarbeitung ist nachstehend ausführlich beschrieben.
  • Wenn der Prozess zur Steuerung der Blickrichtung abgeschlossen ist, verarbeitet die CPU 1 das Spielfeld (S6). Diese Feldverarbeitung schließt das Ausgeben von Befehlen für Prozesse ein, die für das Spiel erforderlich sind, da die Positionen der Figuren, die sich auf dem Feld im virtuellen dreidimensionalen Raum befinden, als Bezug benutzt werden, um festzustellen, welche Figuren im Abseits sind und welche Figuren im Torraum sind, um das Spiel voranzubringen.
  • Dann verarbeitet die CPU 1 die Steuerung des Zuschauerver haltens (S7) und gibt Befehle für die Fogging-Steuerung aus (S8). Diese zwei Prozesse sind ebenfalls Bestandteil der Merkmale der vorliegenden Erfindung. Der Prozess zur Steuerung des Zuschauerverhaltens versucht, Realismus und Unmittelbarkeit zu verbessern, indem eine Vielfalt von Zuschauerverhaltensmustern präsentiert wird, während gleichzeitig die Rechenbelastung niedergehalten wird, wie nachstehend ausführlich beschrieben ist. Der Prozess der Fogging-Steuerung versucht, Realismus und Unmittelbarkeit zu verbessern, indem die Helligkeit des Bildschirms gemäß der Tageszeit gesteuert wird (Farbanpassung, darauf basierend, ob das Spiel tagsüber oder nachts gespielt wird), zu der das Spiel tatsächlich von dem Spieler gespielt wird, wie nachstehend ausführlich beschrieben ist. Schließlich werden weitere notwendige Verarbeitungen ausgeführt (S9).
  • Bei der Steuerung des Ansichtspunkts im Schritt S5 wird nur der Hauptansichtspunkt der Figur bestimmt; die Bewegung einer Figur, die sich in Wirklichkeit umdreht, kann in der nachfolgenden Verarbeitungszeit S1 gemanagt werden. Der Schritt S4 kann auf ähnliche Weise gemanagt werden. Mit anderen Worten: Es kann eine Zeitvorgabe von meist ungefähr 1/60 Sekunden von der Datenerfassung und Bestimmung des Hauptansichtpunktes bis die Bewegung in die entsprechende Richtung tatsächlich ausgeführt wird, festgesetzt werden.
  • Die CPU 1 wiederholt die zuvor erwähnte Verarbeitung für jeden Rahmen. So, wie sich das Spiel entfaltet, sendet die CPU Befehle für die Bewegung und dergleichen entsprechend den Bedienungen durch den Spieler an den VDP 5. Die erforderlichen Polygondaten werden unter Steuerung durch die CPU 1 vom ROM 2 an den VDP 5 übertragen. Der VDP 5 speichert die Polygondaten im VRAM 6 zwischen, die Polygondaten erfahren eine Koordinatenumrechnung vom virtuellen dreidimensionalen Raum in den perspektivischen zweidimensionalen Raum entsprechend den Befehlen, und die umgerechneten Koordinaten werden an die Bildaufbereitungseinrichtung 7 wei tergeleitet. Die Bildaufbereitungseinrichtung 7 bildet Textur auf die einer Koordinatenumrechnung unterzogenen Polygondaten ab und schreibt sie in den Rahmenpufferspeicher 10. Als Folge davon werden für jeden Rahmen Bilder mit neuen Pixeldaten an der Anzeigeeinrichtung 12 angezeigt.
  • Der Prozess für die Steuerung der zuvor erwähnten Figurenblickrichtung ist nachstehend mit Bezug auf 3 bis 7 beschrieben. Dieser Prozess wird im Schritt S5 von 2 ausgeführt.
  • Zunächst werden die Prinzipien der Winkelberechnung zur Bestimmung der Blickrichtung einer Figur C beschrieben. Hierbei wird angenommen, dass die Figur C sich an den Koordinaten (Xp, Yp, Zp) im dreidimensionalen virtuellen Raum befindet und der Fußball B, der als Ziel dient, sich an den Koordinaten (Xt, Yt, Zt) in demselben Raum befindet.
  • In diesem Fall können, basierend auf der Geometrie, wie sie aus Richtung der Y-Achse in 3 gesehen wird, die folgenden Werte berechnet werden: X' = Xt – Xp Z' = Zt – Zp
  • Aus den Werten X' und Z' können der Winkel θy und die Entfernung L in der X-Z-Ebene zwischen der Figur C und dem Ball B berechnet werden. Auf die gleiche Weise kann die Entfernung L zwischen der Figur C und dem Ball B auf der horizontalen Achse basierend auf dieser Geometrie erhalten werden, wobei man sich die Geometrie, die erhalten wird, wenn die vertikale Achse die y-Achse ist, wie in 4 gezeigt vorstellen kann. Mit anderen Worten: Die Koordinaten (Yp, Lp) für die Figur C und die Koordinaten (Yt, Lt) für den Ball B können bestimmt werden. In diesem Fall können die Werte Y' = Yt – Lt L' = Lt – Lpberechnet werden, und der Winkel θy, unter dem die Figur C den Ball B in der Y-L-Ebene sieht, kann basierend auf Y' und L' berechnet werden. Mit anderen Worten: Die Blickrichtung, wenn beispielsweise jede Figur zum Ball blickt, ist durch die Parameter θy, L und θx bestimmt. Das Ziel ist nicht auf den Ball beschränkt. Es kann genauso berechnet werden, wenn es ein anderer Spieler, das Tor oder der Schiedsrichter ist. Mit anderen Worten, es kann gemanagt werden, indem die Koordinaten der gewählten Figur und die Koordinaten eines bestimmten Punktes für einen anderen Spieler oder Schiedsrichter oder die Koordinaten einer zentralen Position, wie etwa des Tors, vorgegeben werden.
  • Die Blickrichtung wird auf diese Weise bestimmt, der Körper der Figur ist jedoch verschiedensten Richtungen zugewendet (Bahn einer Drehbewegung), während ihre Augen in diese Richtung zeigen. 5 veranschaulicht dies. In der vorliegenden Ausführungsform sind der Kopf HD, der Rumpf BD und das Becken HP der Figur C als Komponenten gegeben, wobei sich der Körper während der Steuerung der Blickrichtung dreht. Folglich können Arten der Drehung, wie etwa
    • 1) wenn zuerst der Kopf HD gedreht wird (Drehen in vertikaler oder seitlicher Richtung), danach der Rumpf BD gedreht wird und dann das Becken HP gedreht wird;
    • 2) wenn zuerst der Kopf HD und der Rumpf BD gleichzeitig gedreht werden, und dann das Becken HP gedreht wird; und
    • 3) wenn nur der Rumpf HD gedreht wird,
    für jede Situation gesteuert werden, in der sich die Figur in jedem Spielszenario befindet. Diese Steuerung kann beispielsweise durch Speichern des Winkels, in den jeder Teil HD, BD und HP pro Rahmen gedreht wird, gemanagt werden, indem Befehle für eine Bewegung auf der Grundlage einer geringfügigen Erhöhung des momentanen Drehwinkels in aufeinander folgenden Rahmen gegeben werden und die Drehbewe gungsbefehle in dem Rahmen beendet werden, in dem die berechneten Winkel θx und θy für jeden Körperteil erreicht sind.
  • Im Allgemeinen beruhen die Bewegungen des menschlichen Körpers auf Prinzipien des natürlichen Aufbaus, wobei Körperbewegungen am natürlichsten erscheinen, wenn diese natürlichen Prinzipien angewendet werden, wenn die Figuren in Bewegung gesetzt werden. Beispielsweise wird, wenn sich ein Körper dreht, wie in 5 angegeben ist, sich der Hals am schnellsten drehen, woraufhin die obere Hälfte des Körpers und schließlich der gesamte Körper folgen. Folglich sollte, wenn sich ein Körper dreht, sich der Hals schneller als die obere Hälfte des Körpers drehen, und die obere Hälfte des Körpers sollte sich schneller als der gesamte Körper drehen.
  • Indem der Rumpf BD sich zu drehen beginnt, wenn der Drehwinkel des Kopfes HD einen bestimmten Wert erreicht, kann der sich drehende Körper als gestaffelte Zeitvorgaben für das Drehen von Kopf, Rumpf und Becken dargestellt werden.
  • 6 und 7 zeigen ein Beispiel für den Prozess zur Steuerung der Blickrichtung, die auf diese Art und Weise bestimmt ist. Die Prozedur zur Steuerung der Figurenblickrichtung kann verschiedene Formen annehmen. Was hier gezeigt ist, stellt nur ein Beispiel dar, wobei die vorliegende Erfindung keineswegs auf die Beispiele beschränkt ist. Der Prozess zur Steuerung der Blickrichtung kann für alle Wettkämpfer (Figuren) auf dem Feld ausgeführt werden, oder er kann nur für Figuren in einem festgelegten Sehfeld ausgeführt werden, um die Rechenbelastung zu verringern. Er kann auch nur für bestimmte Figuren innerhalb des festgelegten Sehfeldes, wie etwa Figuren von besonderer Wichtigkeit (beispielsweise Figuren in Bewegung im Zusammenhang mit dem Ball oder Figuren unter der Steuerung durch den Spieler (Person, die mit der Spielvorrichtung spielt) ausgeführt werden.
  • Wie in 6 angegeben ist, wird beispielsweise bestimmt, ob eine bestimmte Figur zurzeit läuft, entweder „ja" (laufend) oder „nein" (nicht laufend) (S21). Wenn ja, wird außerdem bestimmt, ob die andere Mannschaft im Ballbesitz ist (S22) oder nicht. Wenn ja (die andere Mannschaft ist im Ballbesitz), wird ferner bestimmt, ob eine Figur der anderen Mannschaft gerade dribbelt oder nicht (S23). Wenn ja (sie dribbelt gerade), wird auf der Grundlage der berechneten Entfernungswerte bestimmt, ob die dribbelnde Figur in einem Umkreis von 3 Metern ist oder nicht (S24). Wenn ja (im Umkreis von 3 Metern), wird die Blickrichtung der zurzeit gesteuerten Figur zum Ball hingelenkt (S25). In dem Prozess des Schrittes 25 wird der Drehprozess von 5 hinzugefügt. Beispielsweise ist, da im Schritt 25 die Figur läuft, die Art des Drehens 1) geeignet, um beispielsweise die Blickrichtung der Figur auf den Ball zu lenken, während die Figur läuft.
  • Im Falle von nein (nicht im Umkreis von 3 Metern) im Schritt S24, wird die Blickrichtung der Figur, die zurzeit gesteuert wird, zu der Figur gelenkt, die gerade dribbelt (S26). Die Steuerung der Drehung zu diesem Zeitpunkt kann in irgendeiner der mit Bezug auf 5 beschriebenen Formen sein, wobei sie gemäß dem Typ der Winkelbeziehung zu der anderen Figur zu diesem Zeitpunkt gewählt sein sollte.
  • Im Falle von nein (nicht dribbelnd) im Schritt S23 und nein (gegnerische Mannschaft nicht im Ballbesitz) im Schritt S22, wird bestimmt, ob das derzeitige Ballverhalten ein „hoher Ball" ist (S27). Hier wird von einem „hohen Ball" gesprochen, wenn die Ballposition oberhalb der Köpfe der Figuren ist. Wenn ja (hoher Ball), wird ein Befehl an die Figur gegeben, die zurzeit gesteuert wird, um ihre Augen auf den Ball zu lenken (S28). Andererseits, im Falle von nein (kein hoher Ball), wird die Blickrichtung nicht ge steuert, und die bewegungsabhängige Blickrichtung wird beibehalten (S29). Da die Figur zumindest läuft, wird der Blick beispielsweise in die Richtung beibehalten, in welche die Figur gerade läuft. „Bewegungsabhängig" bedeutet, wenn die Blickrichtung nicht gesteuert ist, dass die Bewegung des Handlungsmusters (Fortbewegung) der Figur durch das Programm bestimmt ist, das ohne weitere Abwandlung angewendet wird.
  • Im Falle von nein im Schritt S21, d.h. wenn festgestellt worden ist, dass die gewählte Figur nicht läuft, wird der Reihe nach festgestellt, ob die Figur gerade dribbelt (7, S30) oder im Mittelfeld ist (S31). Im Falle von ja im Schritt 31, weil die Figur gerade dribbelt und sich im Mittelfeld befindet, wird die Figur naturgemäß das Tor anvisieren. In diesem Fall ist der Blick der Figur auf das Tor gerichtet (S32).
  • Wenn sich im Schritt S31 die Figur nicht im Mittelfeld befindet, wird der Blick der Figur beispielsweise mit einer Frequenz von einem Mal alle 4 Sekunden (S33) auf den Sportler, der die Spitze übernommen hat, gerichtet und mit einer Frequenz von einem Mal alle 4 Sekunden auf das Tor gerichtet (S34). Im Falle von nein (nicht dribbelnd) im Schritt S30, wird bestimmt, ob das Spiel in einer Standardsituation ist oder nicht (S35). Wenn ja (Standardsituation), wird bestimmt, ob eine andere Figur beschlossen hat, abzuspielen und schussbereit ist (S37), und wenn ja, wird die Blickrichtung auf die abspielende Figur gelenkt (S37), wohingegen im Falle von nein eine bewegungsabhängige Blickrichtung beibehalten wird, ohne dass irgendeine spezielle Steuerung der Blickrichtung erfolgt (S38).
  • 22 zeigt in schematischer Darstellung einen Bildschirm, der die Ergebnisse der Steuerung der Blickrichtung einer Spielfigur anzeigt. In der Figur lenkt der Sportler A seine Blickrichtung zu dem Sportler B (Füße), der die ab spielende Figur ist. Der Sportler B lenkt seine Blickrichtung zu dem Ball, der abgespielt werden soll.
  • Eine Steuerung der Blickrichtung von Figuren in dieser Weise ermöglicht, das sportliche Verhaltensmuster tatsächlicher Fußballspiele weit genauer zu simulieren. Die Blickrichtung ist nicht länger von der Art, bei welcher der Ball plötzlich in eine andere Richtung geschossen wird, während die Figur beispielsweise wie vorher in die Richtung sieht, in die sie läuft. Auch in solchen Fällen ist der Blick der Figur eher in Richtung des Schusses oder des beabsichtigten Schusses gerichtet, so dass das Verhalten der Figur realistischer dargestellt werden kann und eine interessantere Spielvorrichtung mit einer besseren Unmittelbarkeit geschaffen werden kann. Außerdem wird bei der Steuerung der Blickrichtung nicht nur der Kopf gedreht, sondern auch der Rumpf und das Becken werden entweder nacheinander oder gleichzeitig, wie erforderlich, gedreht, um zu ermöglichen, dass das Verhalten während der Steuerung der Blickrichtung auf realistischere Art und Weise ausbildet wird.
  • Ein weiterer Vorteil der zuvor erwähnten Steuerung der Blickrichtung besteht darin, dass die Richtung, in welche der Blick der Figur gerichtet ist, an sich dem Spieler (Person, die mit der Spielvorrichtung spielt) Hinweise darauf gibt (Andeutungen macht), welche Bewegung sie als nächstes ausführen wird. Wenn beispielsweise eine dribbelnde Figur beginnt, ihren Blick häufig nach hinten zu richten, kann gefolgert werden, dass sich ein Spieler der anderen Mannschaft von hinten nähert, wodurch dem Spieler (Person, die mit der Spielvorrichtung spielt) ermöglicht wird, die Verfolgung zu vermeiden. Das Verhalten der Figuren kann folglich Situationen in dem Spiel an den Spieler (Person, die mit der Spielvorrichtung spielt) übermitteln (andeuten).
  • Umgekehrt ist es möglich, irreführende Vorschläge in den Bestimmungsschritten in 6 und 7 zu unterbreiten. Mit anderen Worten: Die Blickrichtung kann bewusst in eine Richtung gelenkt werden, die von der tatsächlichen Bestimmung völlig verschieden ist. Dies kann das Urteilsvermögen des Spielers (Person, die mit der Spielvorrichtung spielt) verwirren, kann ferner die Spielvorrichtung interessanter und spannender werden lassen und kann die Schwierigkeit des Spiels erhöhen.
  • Der Prozess der Steuerung des Zuschauerverhaltens ist nachstehend mit Bezug auf 8 bis 17 beschrieben.
  • Es wird zuerst die Struktur der Bilddaten (Zuschauerdaten) für die Porträtierung der Zuschauer bei der vorliegenden Erfindung mit Bezug auf 8 beschrieben. Erstens sitzen Zuschauer auf Tribünen, bei denen m (> 2) Spalten Sitze immer höher werden, je weiter die Tribüne nach hinten geht, wobei die Zuschauer in diesen m Spalten in n (> 2) Zeilen eingeteilt sind. Von diesen „m Spalten × n Zeilen" werden „m' Spalten × n Zeilen" Zuschauer pro m' Spalte(n) (> 0) durch Abbilden von Texturen, die mehrere Zuschauer enthalten, auf jeweils ein rechtwinkliges Polygon dargestellt. Als Beispiel zeigt 8 die Datenstruktur im virtuellen Raum, wobei A bis D, A' bis D' und A'' bis D'' 12 rechtwinklige Polygone angeben, und die Polygone, basierend auf einem Muster, das in der Tiefenrichtung der Tribünen immer höher wird, geschichtet sind. Jedes der Polygone A bis D, A' bis D' und A'' bis D'' ist ein einziges Polygon, das mehrere Zuschauer in Teilstücken von beispielsweise 3 Spalten (= m') × 4 Zeilen (= n) darstellt. Das zweite Polygon B, das sich im virtuellen Raum (in Tiefenrichtung) hinter dem ersten Polygon A befindet, setzt einen Ausgangszustand voraus, der beispielsweise eine Spalte höher ist, das dritte Polygon C setzt einen Ausgangszustand voraus, der beispielsweise eine Spalte höher ist, und das vierte Polygon D setzt einen Anfangszustand voraus, der beispielsweise eine Spalte höher ist. An sich werden beispielsweise 14 „Spalten × 4 Zeilen" Zuschauer auf den Tribünen mittels der 12 Polygone A bis D, A' bis D' und A'' bis D'' gereiht.
  • Beispielsweise sind die ersten vier Polygone A bis D der 12 Polygone A bis D, A' bis D' und A'' bis D'' in einem Zuschauermuster miteinander verbunden, die nächsten vier Polygone A' bis D' sind in einem Zuschauermuster miteinander verbunden, und die letzten vier Polygone A'' bis D'' sind in einem Zuschauermuster miteinander verbunden. Gleichzeitig bilden drei Polygone, nämlich das erste Polygon A, das fünfte Polygon A'' und das neunte Polygon A'', der 12 Polygone A bis D, A' bis D' und A'' bis D'' ein Objekt OB1, in welchem sie sich in der gleichen Art und Weise bewegen. Genauso bilden drei weitere Polygone, nämlich das zweite Polygon B, das sechste Polygon B' und das zehnte Polygon B'' ein Objekt OB2, in welchem sie sich in der gleichen Art und Weise bewegen. Genauso bilden weitere drei Polygone, nämlich das dritte Polygon C, das siebte Polygon C' und das elfte Polygon C'', ein Objekt OB3, und weitere drei Polygone, nämlich das vierte Polygon D, das elfte Polygon D' und das zwölfte Polygon D'' bilden ein Objekt OB4. Die Zuschauermuster jedes Objekts sind unverbunden. Das bedeutet, dass ein Merkmal der Zuschauerdaten bei der vorliegenden Erfindung ist, dass mehrere Polygone ein Objekt bilden, obwohl sie im virtuellen Raum voneinander getrennt sind. Die Zuschauermuster jedes Objekts brauchen nicht verbunden zu sein.
  • Der Prozess zur Steuerung des Zuschauerverhaltens, der in 9 gezeigt ist, wird durch die CPU 1 unter Verwendung der auf diese Weise strukturierten Daten ausgeführt, d.h. die CPU 1 bestimmt die Polygongruppen, deren Verhalten gesteuert wird, von allen Zuschauerdaten-Polygonen (S41). Folglich kann eine beliebige Gruppe von Zuschauerpolygonen (wie etwa die 12 Polygone A bis D, A' bis D' und A'' bis D'' in 10), die beispielsweise auf der Seite der Mannschaft, die sie anfeuern, aufgereiht sind, unter den Zu schauern ausgewählt sein, die von der virtuellen Kamera gesehen werden (Ansichtspunkt). Selbstverständlich können auch mehrere Polygongruppen ausgewählt sein.
  • Die CPU 1 wählt dann ein Verhaltensmuster aus, um die festgelegten (ausgewählten) Polygon-Gruppen zu bewegen (S42). Muster, bei denen eine oder mehrere Gruppen von Polygonen auf und ab (vertikal) oder von einer Seite zur anderen (seitlich) bewegt werden, sind als Verhaltensmuster bereitgestellt worden. Wenn das Verhaltensmuster ausgewählt ist, führt die CPU 1 den Prozess aus, um die eine Gruppe oder die mehreren Gruppen von Polygonen gemäß dem ausgewählten Verhaltensmuster zu bewegen (S43a bis S43n).
  • 10 bis 17 zeigen Beispiele für Methoden, um die Polygone zu bewegen. Die Polygongruppe in diesen Figuren ist ein Beispiel für eine Gruppe und hat die gleiche Datenstruktur wie in 8. 10 zeigt den Zustand, bevor die Polygone bewegt werden, und der Zustand ändert sich mit aufeinander folgenden Rahmen in die Zustände der Polygonpositionen, die in 11, 12, 13, 14, 15 und 16 gezeigt sind, um nach mehreren Rahmen zu dem Zustand der in 17 gezeigten Polygonpositionen (genauso wie in 10) zurückzugelangen.
  • Im Besonderen sind in dem ersten neuen Rahmen, der in 11 gezeigt ist, das erste Polygon A, das fünfte Polygon A' und das neunte Polygon A'' von vorn, die das erste Objekt OB1 bilden, im virtuellen Raum (nach oben) hochgehoben. Im nächsten neuen Rahmen, in 12 gezeigt, sind die drei Polygone A, A' und A'' des Objekts OB1 weiter (nach oben) hochgehoben und das zweite Polygon B, das sechste Polygon B' und das zehnte Polygon B'', die das zweite Objekt OB2 bilden, sind (nach oben) hochgehoben. Im nächsten neuen Rahmen, in 13 gezeigt, sind die Polygone A, A' und A'' des Objekts OB1 im virtuellen Raum (nach unten) abgesenkt, die Polygone B, B' und B'' des zweiten Objekts OB2 sind wei ter nach oben hochgehoben, und das dritte Polygon C, das siebte Polygon C' und das elfte Polygon C'', die das dritte Objekt OB3 bilden, sind (nach oben) hochgehoben. Im nächsten neuen Rahmen, in 14 dargestellt, senken sich die Polygone B, B' und B'' des zweiten Objekts OB2 und die Polygone C, C' und C'' des dritten Objekts OB3, und die drei Polygone D, D' und D'' des Objekts OB4 werden (nach oben) hochgehoben. Im nächsten neuen Rahmen, in 15 dargestellt, senken sich die Polygone C, C' und C'' des dritten Objekts OB3 und die Polygone D, D' und D'' des Objekts OB4 (nach unten) ab. Im nächsten neuen Rahmen senken sich die Polygone D, D' und D'' des Objekts OB4, das sich langsamer absenkt, weiter (nach unten) ab. Folglich kehrt die Sequenz zum Anfangszustand der Polygonpositionen zurück, wie in 17 gezeigt ist. Auf die gleiche Weise können die Polygone von einer Seite zur anderen bewegt werden.
  • Die Zuschauerdaten des Teilbereichs, der von der virtuellen Kamera gesehen wird, werden von der CPU 1 jedes Mal dann für den VDP 5 vorgesehen, wenn eine oder mehrere der Gruppen von Polygonen (beispielsweise aus dem Zustand in 10 in jenen in 11) bewegt werden (S44). Das Verfahren kehrt anschließend zu dem Prozess im Schritt S41 zurück, um den zuvor erwähnten Verhaltensmuster-Steuerungsprozess für jeden neuen Rahmen zu wiederholen. Dieser Prozess zur Steuerung des Verhaltens der Zuschauer kann für Gruppen von Anzeigerahmen statt Rahmen für Rahmen ausgeführt werden, um die Verarbeitung zu vereinfachen. Der Prozess zur Steuerung des Zuschauerverhaltens kann auch während bestimmter Betriebsarten (etwa bei Toren) ausgeführt werden. Die Anzeigeobjekte im dreidimensionalen virtuellen Raum werden mit sich ändernder Perspektive in Bezug auf den Anzeigebildschirm von einem bestimmten Ansichtspunkt der virtuellen Kamera im virtuellen Raum (die durch die Person, die mit der Spielvorrichtung spielt, bewegt werden kann) aus angezeigt. Sicherheitshalber sollten der Ansichtspunkt bei der Steuerung der Blickrichtung einer Figur und der An sichtspunkt, welcher dem projizierten Zentrum und der Position der virtuellen Kamera entspricht, getrennt sein.
  • Folglich sind mehrere Polygone wie ein einziges Objekt verknüpft, die Polygone in mehreren Gruppen sind in Querschnittsgruppierungen verschachtelt, und jede Gruppe ist mit verbindenden Mustern als Textur versehen, so dass das facettenreiche Verhalten sich ständig bewegender Zuschauer auf realistischere Art und Weise dargestellt werden kann, indem einfach die Polygone in ihren Objekteinheiten bewegt werden. Da sie sich in Objekteinheiten bewegen, lässt sich die Software-Ausgestaltung vereinfachen, beispielsweise mit weniger Befehlen.
  • Die Verhaltenssteuerung an sich ist einfach, was zu geringeren Rechenbelastungen bei einer solchen Steuerung führt. Die Steuerung kann mit weit weniger Daten, mit denen umzugehen ist, erfolgen, wobei das Verhalten weit realistischer angezeigt wird, als wenn Zuschauer einzeln mit Polygonen dargestellt werden. An sich ist weniger Speicherkapazität erforderlich, um die Zuschauerdaten zu speichern. Selbstverständlich kann das Zuschauerverhalten mit weniger Daten realistischer und unmittelbarer angezeigt werden, als wenn ein solches Verhalten mittels Animation angezeigt wird.
  • Nachstehend ist mit Bezug auf 18 bis 21 der weiter oben erwähnte Prozess zur Fogging-Steuerung beschrieben. Diese Fogging-Steuerung ist ein Prozess, bei dem ein Typ von Maskendaten, der Farbwerte hat, wie oben beschrieben ist, den Bilddaten überlagert wird. Dies gestattet eine realistischere Bildanzeige, die nicht erzielt werden kann, indem auf dem Bildschirm nur die Änderungen der Helligkeit, welche Veränderungen des Sonnenlichts tagsüber begleiten, bei ausschließlicher Verwendung von herkömmlichen Luminanzdaten wiedergegeben werden.
  • Dieser Prozess wird beispielsweise von der CPU 1 wie in 18 gezeigt ausgeführt. Der in 18 gezeigte Prozess kann auch durch den VDP 5 ausgeführt werden.
  • Die CPU 1 liest zuerst die aktuelle Zeit, d.h. die Normalzeit, zu der ein Spieler (Person, die mit der Spielvorrichtung spielt) die Spielvorrichtung spielend benutzt, von der Echtzeituhr 13 ab (S51). Es wird dann bestimmt, ob die Zeit von dem vorgegebenen Tageszeitabschnitt, der als Bezug für Tag, Abend oder Nacht dient, abweicht oder nicht (S52). Die Standard-Tageszeitabschnitte für Tag, Abend und Nacht sind beispielsweise wie in 19 gezeigt festgelegt. Beispielsweise ist der Standard-Tageszeitabschnitt für den Tag verhältnismäßig lang festgesetzt, nämlich von 6.00 Uhr bis 16.30 Uhr, der Tageszeitabschnitt des Abends ist von 17.00 Uhr bis 18.30 festgesetzt, und der Standard-Tageszeitabschnitt der Nacht ist von 19.30 Uhr bis 5.30 Uhr festgesetzt. Der Standard-Tageszeitabschnitt des Tages ist länger, um Unterschiede bei Spielergebnissen aufgrund von Veränderungen der Bildschirmhelligkeit zwischen Spielern, die vormittags spielen, und Spielern, die am Abend spielen, zu vermeiden.
  • Im Falle von ja im Schritt S52 werden die im Voraus festgelegten Fog-Datenparameter für die Standard-Tageszeitabschnitte Tag, Abend und Nacht aus dem ROM 2 gelesen (S53). Die drei Parameter sind Rot-, Blau- und Grün-Fog-Farbcodes, Offset-Werte (die Fog-Tiefe angebend) und eine Dichte (Grad, in dem Fog im Verhältnis zur Tiefe angewendet wird), wobei diese Parameter so im Voraus festgelegt sind, dass sie für die Standard-Tageszeitabschnitte geeignet sind.
  • Die CPU 1 berechnet dann die Fog-Daten und gibt sie in Form von Maskendaten an den VDP 5 aus (S54, S55).
  • Im Falle von nein im Schritt S52 wird die Abweichung zwi schen der aktuellen Zeit und den Standard-Tageszeitabschnitten berechnet (S56). Wenn beispielsweise die Uhrzeit 5.45 Uhr am Morgen ist, ist die Abweichung von 15 Minuten genau in der Mitte zwischen dem als Bezug dienenden Standard-Tageszeitabschnitt Nacht und jenem für den Tag.
  • Die CPU 1 liest dann die Fog-Datenparameter (RGB-Farbcodes, Offset-Werte, Dichte) für die zwei Standard-Tageszeitabschnitte, zwischen die die abweichende Zeit fällt (S57). Wenn die Zeit beispielsweise 5.45 Uhr ist, werden die Parameter für die Standard- Tageszeitabschnitte Nacht und Tag gelesen.
  • Die Offset- und Dichteparameterwerte werden korrigiert (S58). Wenn beispielsweise die Zeit 5.45 Uhr ist, sind die Offsetwerte und die Dichte die Mittelwerte für 1/2 der Offset- und Dichtewerte der Standard-Tageszeitabschnitte Tag und Nacht. Wenn die Zeit einem der Standard-Tageszeitabschnitte näher ist, werden die Werte gemittelt (korrigiert), wobei den Werten des näheren Tageszeitabschnitts ein größeres Gewicht gegeben wird.
  • Die Offset-Werte und die Dichte werden durch eine solche Korrektur bestimmt, wenn die Zeit auf diese Weise von dem Standard- Tageszeitabschnitt abweicht, und die Fog-Daten werden auf die gleiche Weise wie oben berechnet und ausgegeben (S54, S55).
  • Dies ergibt in Echtzeit Anzeigebilder, die gemäß dem Zustand des Sonnenlichts, der für die Zeit angenommen wird, während der das Spiel von einem Spieler (Person, die mit der Spielvorrichtung spielt) gespielt wird, mittels Fogging bearbeitet worden sind. Beispielsweise weist der Hintergrund jenseits des Spielfeldes, wenn das Spiel am Abend gespielt wird, ein ziemlich dunkles Fogging auf (siehe schräge Linien in 20). Wenn ein Spiel beispielsweise nachts gespielt wird, weist der Hintergrund ein dunkles Fogging und vom Schein des Mondlichts ein gelbliches Fogging auf, wobei vorausgesetzt wird, dass der Mond in den dunklen Hintergrund scheint (siehe schräge Linien in 21).
  • Es ist folglich möglich, anders als in den Fällen, in denen der Zustand des Sonnenlichts (physikalische Helligkeit) in den Bildern, die das Spielfeld und seine Umgebung darstellen, nur durch die Steuerung der Luminanz angezeigt wird, wie in der Vergangenheit, spektrale Änderungen und die Helligkeit der Lichtquelle realistischer darzustellen. Insbesondere kann eine örtlich beschränkte Helligkeit, wie beispielsweise in Teilbereichen, in die der Mond nicht scheint, aufgrund des Verbreitungsgebietes der Farb-Fog-Daten leichter zu steuern sein. In der vorliegenden Ausführungsform kann die heikle Helligkeit von Standard-Tageszeitabschnitten, wie etwa wenn die aufgehende oder untergehende Sonne außerhalb ist, basierend auf den korrigierten Parametern, die unter Verwendung zweier Standard-Tageszeitabschnitte aus Tag, Abend und Nacht erhalten werden, verarbeitet werden.
  • Das bedeutet, dass der Farbzustand festgelegt wird, indem im Voraus ein Farbzustand bereitgestellt wird, der geeigneten Farbzuständen für ein Spiel am Tage, am Abend oder bei Nacht entspricht, und indem Korrekturen vorgenommen werden (insbesondere Prozesse zur Farbmischung, wobei auch Luminanzwerte, die auf der Grundlage von zwei Sätzen von Standardwerten korrigiert sind, addiert werden können), die auf Standardwerten zwischen Tag und Abend, Abend und Nacht oder Nacht und Tag für Farbzustände beruhen, die sich für die Zeit eignen, zu welcher das Spiel gespielt wird. Es ist folglich nicht länger schwierig, das Spiel zu spielen, während der Bildschirm dunkler wird, was geschieht, wenn Anpassungen nur unter Verwendung der Luminanzwerte vorgenommen werden. Der Punkt, an dem eine Farbanpassung beginnt (ein Standardwert) und der Punkt, an dem sie endet (ein weiterer Standardwert), sind im Voraus festgelegt, und die Zustände, die sich für Spiele eignen, sind gesetzt, so dass keine Vorteile oder Nachteile durch den Farbzustand auf dem Bildschirm entstehen, ganz gleich, zu welcher Zeit das Spiel gespielt wird. D.h. aufgrund des Charakters des Spiels ist es wichtig, dass „kein Gefühl von Unfairness infolge von Vorteilen oder Nachteilen empfunden wird, die durch den Tageszeitabschnitt verursacht sind, in dem das Spiel gespielt wird", wenn es „Farbänderungen basierend auf zeitlichen Änderungen" gibt, wobei die Vorrichtung in der vorliegenden Ausführungsform im Stande ist, dies zu meistern. Es ist folglich möglich, Bilder mit einer besseren Unmittelbarkeit bei der Darstellung der Helligkeit der Umgebung zu liefern, in welche das Spielfeld und sein Rand eingebettet sind.
  • Die zuvor erwähnten Steuerungen der Figurenblickrichtung, des Zuschauerverhaltens und des Foggings brauchen nicht unbedingt gleichzeitig gemanagt werden. Es ist möglich, irgendeine oder zwei zu managen.
  • Eine zweite Ausführung der vorliegenden Erfindung ist nachstehend mit Bezug auf 23 bis 58 beschrieben.
  • 23 veranschaulicht das Erscheinungsbild einer Videospielkonsole, die sich durch die Verwendung einer Bildverarbeitungsvorrichtung im Zusammenhang mit einer weiteren Ausführungsform der vorliegenden Erfindung auszeichnet. In der Figur ist die Videospielkonsolen-Haupteinheit 50 grob in Form eines Kästchens mit gedruckten Schaltungen und dergleichen für eine Verarbeitung des Spiels, die im Inneren installiert sind. An der Vorderfläche der Videospielkonsolen-Haupteinheit 50 sind zwei Anschlussteile 60a vorgesehen, und mittels Kabel 60c sind für das Spiel Spielpads 60b an die Anschlussteile 60a angeschlossen. Wenn zwei Spieler das Spiel spielen, werden beide Spielpads 60b verwendet.
  • Eine Kassetten-Schnittstelle 50a zum Anschließen von ROM-Kassetten und ein CD-ROM-Laufwerk 50b zum Lesen einer CD-ROM sind an der Oberseite der Videospielkonsolen-Haupteinheit 50 vorgesehen. Obwohl in der Figur nicht gezeigt, sind Videoausgangsanschlüsse und Audioausgangsanschlüsse an der Rückseite der Videospielkonsolen-Haupteinheit 50 vorgesehen. Die Videoausgangsanschlüsse sind über ein Kabel 70a mit den Videoeingangsanschlüssen eines Fernsehers 80 verbunden, und die Audioausgangsanschlüsse sind über ein Kabel 70b mit den Audioeingangsanschlüssen des Fernsehers 80 verbunden. Benutzer bedienen das Spielpad 60b bei solchen Videospielkonsolen, um das Spiel zu spielen, während sie die Bilder verfolgen, die am Fernseher 80 projiziert werden.
  • 24 ist ein Blockdiagramm, das eine schematische Darstellung der fernsehergeeigneten Spielkonsole in der vorliegenden Ausführungsform zeigt. Die Bildverarbeitungsvorrichtung ist aus einem CPU-Block 51 zur Steuerung des gesamten Systems, einem Videoblock 52 zur Steuerung der Spielbildschirmanzeige, einem Soundblock 53 zur Erzeugung von Soundeffekten und dergleichen, einem Untersystem 54 zum Lesen der CD-ROM und dergleichen gebildet.
  • Der CPU-Block 51 ist aus einer SCU (System Control Unit (engl.)) 100, einer Haupt-CPU 101, einem RAM 102, einem ROM 103, einer Kassetten-Schnittstelle 50a, einer Unter-CPU 104, einem CPU-Bus 103 und dergleichen gebildet. Die Haupt-CPU 101 steuert das gesamte System. Die Haupt-CPU 101 weist Verarbeitungsfunktionen auf, die jenen eines internen DSP (digitalen Signalprozessors) ähnlich sind, wodurch es möglich ist, eine Anwendungssoftware mit hoher Geschwindigkeit auszuführen. Das RAM 102 wird als Arbeitsbereich für die Haupt-CPU 101 verwendet. Ein Anfangsprogramm oder dergleichen zur Initialisierung ist in das ROM 103 geschrieben. Die SCU 100 steuert die Busse 105, 106 und 107, um einen problemlosen Datenaustausch, nämlich die Eingabe und die Ausgabe von Daten, zwischen der Haupt-CPU 101, den VDPs 120 und 130, dem DSP 140, der CPU 141 und dergleichen sicherzustellen. In die SCU 100 ist eine DMA-Steuereinheit eingebaut, die ermöglicht, Daten für frei bewegbare Figuren in dem Spiel an das VRAM in dem Videoblock 52 zu übermitteln. Anwendungssoftware für Spiele und dergleichen kann folglich mit hoher Geschwindigkeit ausgeführt werden. Die Kassette 50a wird benutzt, um Anwendungssoftware einzugeben, die in Form einer ROM-Kassette geliefert wird.
  • Die Unter-CPU 104 wird als SMPC (Systemmanager und Peripheriesteuerung) bezeichnet. Sie hat zur Aufgabe, als Reaktion auf Befehle von der Haupt-CPU 101 Peripheriedaten von den Spielpads 60b über die Anschlussteile 60a zu gewinnen. Die Haupt-CPU 101 führt basierend auf den Peripheriedaten, die sie von der CPU 104 empfangen hat, Prozesse aus. An die Anschlussteile 60a kann ein beliebiges Peripheriegerät aus Spielpads, Joysticks, Tastaturen und der gleichen angeschlossen werden. Die Unter-CPU 104 hat die Aufgaben der automatischen Erkennung des Typs des Peripheriegeräts, das an die Anschlussteile 60a (Haupteinheit-Nebenanschlüsse) angeschlossen ist, und der Gewinnung von Peripheriedaten gemäß dem Übertragungsmodus, der dem Typ des Peripheriegeräts entspricht.
  • Der Videoblock 52 ist mit einem VDP (Bildausgabeprozessor) 120 für die Bilderzeugung von Figuren und dergleichen, die aus Videospiel-Polygondaten bestehen, und einem VDP 130 für die Bilderzeugung von Hintergrundbildebenen, das Synthetisieren von Polygon-Bilddaten und Hintergrundbildern, die Clipping-Verarbeitung und dergleichen ausgestattet. Der VDP 120 ist mit dem VRAM 121 und Rahmenpuffern 122 und 123 verbunden. Die Bilderzeugungsdaten für die Polygone, welche die Videospielkonsolenfiguren darstellen, werden von der Haupt-CPU 101 durch die SCU 100 an den VDP 120 gesendet und in das VRAM 121 geschrieben. Die in das VRAM 121 geschrie benen Bilderzeugungsdaten werden durch den bildaufbereitenden Rahmenpuffer 122 oder 123 beispielsweise in Form von 16 oder 8 Bit/Pixel abgebildet. Die in den Rahmenpuffer 122 oder 123 abgebildeten Daten werden an den VDP 130 gesendet. Daten zur Steuerung der Bilderzeugung werden von der Haupt-CPU 101 durch die SCU 100 an den VDP 120 gesendet. Der VDP 120 führt dementsprechend den Bilderzeugungsprozess aus.
  • Der VDP 130 ist an das VRAM 131 angeschlossen, und eine Bilddatenausgabe von dem VDP wird durch den Speicher 132 an einen Codierer 160 ausgegeben. Der Codierer 160 erzeugt Bildsignale durch Hinzufügen von Synchronisiersignalen oder dergleichen zu den Bilddaten und gibt sie an den Fernseher 80 aus. Der Spielbildschirm wird folglich am Fernseher 80 angezeigt.
  • Der Soundblock 53 ist aus einem DSP 140 zum Synthetisieren von Sound gemäß entweder der Pulscodemodulationsbetriebsart oder der Frequenzmodulationsbetriebsart und einer CPU 141 zur Steuerung des DSP 140 gebildet. Die von dem DSP 140 synthetisierten Audiodaten werden mittels eines D/A-Umsetzers 170 in 2-Kanal-Signale umgesetzt und dann an Lautsprecher 80b ausgegeben.
  • Das Untersystem 54 ist aus einem CD-ROM-Laufwerk 50b, einer CD-Schnittstelle 180, der CPU 181, einer MPEG-Audio-Einrichtung 182, einer MPEG-Video-Einrichtung 183 und dergleichen gebildet. Das Untersystem 54 hat zur Aufgabe, Anwendungssoftware, die in Form einer CD-ROM geliefert wird, zu lesen und eine Animation wiederzugeben. Das CD-ROM-Laufwerk 50b liest Daten von der CD-ROM. Die CPU 181 führt Prozesse aus, wie etwa die Steuerung des CD-ROM-Laufwerks 50b und die Korrektur von Fehlern in den Daten, die gelesen werden. Die von der CD-ROM gelesenen Daten werden durch die CD-Schnittstelle 180, den Bus 106 und die SCU 100 der CPU 101 zugeführt, wo sie als Anwendungssoftware verwendet werden. Die MPEG-Audio-Einrichtung 182 und die MPEG-Video-Ein richtung 183 sind Einrichtungen zur Wiederherstellung von Daten, die gemäß den MPEG(Motion Picture Expert Group(engl.))-Normen komprimiert worden sind. Unter Verwendung der MPEG-Audioeinrichtung 182 und der MPEG-Videoeinrichtung 183 zur Wiederherstellung der MPEG-komprimierten Daten, die auf die CD-ROM geschrieben sind, kann eine Animation wiedergegeben werden.
  • 25 veranschaulicht einen Fall eines Fußballspiels, das gerade gespielt wird, als ein Beispiel für ein Spiel in einem dreidimensionalen virtuellen Spielraum, der durch ein Computersystem gestaltet ist.
  • In der Figur ist ein Fußballspielfeld in der x-z-Ebene im dreidimensionalen virtuellen Raum ausgebildet. Die Längsrichtung (Richtung von links nach rechts) des Spielfeldes ist in Richtung der x-Achse, die Breitenrichtung (Tiefenrichtung) des Spielfeldes ist in Richtung der y-Achse, und die Höhenrichtung ist in Richtung der z-Achse. Auf dem Spielfeld befinden sich verschiedene Sportlerobjekte, die in der Figur nicht gezeigt sind, und die Spieler, die mit der Spielvorrichtung spielen, steuern die Bewegungen der Sportlerfiguren mittels Eingabevorrichtungen. Auf dem Boden sind Linienobjekte dargestellt, um das Fußballspielfeld zu bilden. Das Spiel wird mittels einer virtuellen Kamera (Ansichtspunkt) übertragen, die derart angeordnet ist, dass sie Sachverhalte im Sehfeld in dem virtuellen Spielraum mittels einer Koordinatenumrechnung oder dergleichen auf einem zweidimensionalen Bildschirm anzeigt.
  • 26 und 27 veranschaulichen Perspektiven bei der vorliegenden Erfindung. In 26 sind Linienobjekte als eine Kombination von Polygonen angeordnet (im Folgenden als Linien-Polygone bezeichnet), die Linien auf dem Boden bilden, wobei ein Fußballspielfeld gebildet ist, das mittels der Linien gezeichnet ist, wie in 25 gezeigt ist. Die Linien werden auf dem Bildschirm gut angezeigt, wenn die Kamera im Spielraum unter einem Winkel positioniert ist, unter dem sie das Feld von oben überblickt, jedoch verringert sich die Oberfläche der Linien auf dem Bildschirm, sowie sich der Höhen-(y-Achsen-)Winkel der Kamera der Horizontalrichtung nähert, und die Linien verschwinden allmählich vom Bildschirm. Außerdem ist es in Fällen, in denen die Linien-Polygone und die Kamera einander zugewandt sind, d.h. wenn der Normalenvektor des Linien-Polygons und der Kamerablickrichtungsvektor parallel sind, mitunter möglich, dass die Linien-Polygone so fein werden, dass sie auf zweidimensionalen Projektionsbildschirmen, wobei der dreidimensional virtuelle Raum eine Koordinatenumrechnung erfahren hat, nicht angezeigt werden können, wenn der Ansichtpunkt weit genug entfernt ist. Dies ist bei Spielen, die innerhalb solcher Linien (oder eines Spielfeldes) gespielt werden, nachteilig.
  • Dementsprechend werden bei der vorliegenden Erfindung die Lagekoordinaten einiger Scheitelpunkte der Linien-Polygone modifiziert, um die Oberfläche zu vergrößern, die mittels der Kamera unter Bedingungen projiziert wird, die es erschweren, die Linien auf den Bildschirm zu projizieren.
  • Das bedeutet, dass im Wechselverhältnis mit der Kamera die Oberfläche der Linien-Polygone, die von der Kamera projiziert wird, vergrößert wird, indem, wie in 27 gezeigt, die Höhenposition der Scheitelpunkte, die sich von der Kamera gesehen in Tiefenrichtung der Linien-Polygone auf dem Boden befinden, leicht angehoben wird.
  • 28 ist ein Ablaufplan, der den Algorithmus für solch ein Verfahren veranschaulicht.
  • Erstens, wenn Linien-Polygone (oder Linienobjekte) im Sehfeld der Kamera vorhanden sind, die Objekte betrachtet, die sich im virtuellen Spielraum befinden, wird von dem Programm ein entsprechender Merker gesetzt, was in der Figur nicht gezeigt ist. Wenn dieser in dem Hauptprogramm (in der Figur nicht gezeigt) bestimmt worden ist, wird der Prozess, der verhindert, dass die Linien verschwinden, ausgeführt (S102, ja).
  • Zuerst wird bestimmt, ob sich die Scheitelpunkte der Linien-Polygone von der Kamera weg oder zur Kamera hin befinden. Ein Verfahren dafür ist, wie in 29 gezeigt ist, den Abstand 11 zwischen der Kamera und dem Scheitelpunkt P1, sowie den Abstand 12 zwischen der Kamera und dem Scheitelpunkt P3 zu berechnen und den weiter entfernten und näheren Scheitel auf der Grundlage des Betrags der zwei Entfernungen zu bestimmen.
  • Ein weiteres Verfahren, das in 30 gezeigt ist, umfasst, die Winkel θ1 und θ3 der Scheitelpunkte P1 und P3 mit den Winkeln Ø1 und Ø3 der Kamera zu vergleichen, um den weiter entfernten und den näheren der Scheitelpunkte P1 und P3 zu bestimmen. Obgleich irgendeines dieser zwei Verfahren in der vorliegenden Ausführungsform benutzt werden kann, ist das Letztere vorteilhafter, weil es weniger Berechnungen für die Hardware auszuführen gibt, als bei dem ersten Verfahren.
  • Das letztere Verfahren zum Vergleichen von Winkeln wird verwendet, um nachstehend die Bestimmung des weiter entfernten und näheren Scheitelpunkts des Linien-Polygons in den Schritten S104 bis S110 zu beschreiben.
  • Die Daten eines Linien-Polygons werden aus einer nicht in der Figur gezeigten Objekttabelle ausgelesen, welche die Objektgruppen angibt, die es in der Szene (S104) gibt. 31 ist ein Beispiel für Linien-Polygondaten, wobei beispielsweise sowohl Koordinatenwerte (xn, zn) eines Weltkoordinatensystems als auch im Voraus festgelegte Winkel und dergleichen für eine Bestimmung weiter entfernter und näherer Scheitelpunkte in den Daten für Polygon-Schei telpunkte P1 bis P4 in Wechselbeziehung stehen.
  • Wie in 30 gezeigt ist, werden dann die momentane Position der Kamera in dem Weltkoordinatensystem (x-z-Ebene) und der Winkel Øn in Richtung des Scheitelpunktes Pn eines Linien-Polygons, das von der Kameraposition aus gesehen wird, gelesen. Der Winkel Øn kann mittels einer trigonometrischen Funktion aus den Koordinaten des Linien-Polygon-Scheitelpunktes Pn und den Koordinaten der Kameraposition bestimmt werden (S106).
  • Dann werden der Linien-Polygon-Scheitelwinkel und der Kamerawinkel verglichen (S108). In 30 beträgt beispielsweise der im Voraus festgelegte Winkel für den Scheitelpunkt P1 90 Grad, und der im Voraus festgelegte Winkel für den Scheitelpunkt P3 beträgt 270 Grad. Wenn der Winkel Ø1 von der x-Achse des Blickrichtungsvektors zwischen der Kamera und dem Scheitelpunkt P1 120 Grad beträgt, dann gilt: 120 Grad – 90 Grad = 30 Grad < 90 Grad (wobei in diesem Fall 90 Grad der Bezugswert für die Bestimmung ist) (S108), was ermöglicht, ihn als den Scheitelwinkel an der in Tiefenrichtung verlaufenden Seite des Polygons zu bestimmen (S110).
  • Wenn der Winkel Ø3 von der x-Achse des Blickrichtungsvektors zwischen der Kamera und dem Scheitelpunkt P3 150 Grad beträgt, dann gilt: 150 Grad – 270 Grad = ABS (120 Grad) > 90 Grad (wobei in diesem Fall 90 Grad der Bezugswert für die Bestimmung und ABS der Absolutwert ist) (S108), was ermöglicht, ihn als den Scheitel an der näheren Seite der Linie zu bestimmen (S110).
  • Wenn der Scheitelpunkt Pn an der näheren Seite eines Linienobjekts ist, wird für den Scheitelpunkt Pn keine Höhenanpassung vorgenommen, und es werden die Daten für den nächsten Polygon-Scheitelpunkt gelesen (S110, nein).
  • Wenn der Scheitelpunkt Pn an der näheren Seite eines Linienobjekts ist (S112, ja), wird bestimmt, ob die Entfernung zu dem Scheitelpunkt 10 m oder weniger beträgt. Bei 10 m oder weniger (S112, ja), d.h. wenn die Kamera der Linie nahe ist, ist die Linie normalerweise auf dem Bildschirm sichtbar, so dass die Höhe des Scheitelpunktes Pn nicht angepasst wird und die Daten für den nächsten Linien-Polygon-Scheitelpunkt gelesen werden (S112, nein).
  • Wenn die Entfernung zu dem Scheitelpunkt Pn mehr als 10 m beträgt (S112, nein), d.h. wenn die Kamera von der Linie entfernt ist, dann ist die Linie gewöhnlich schlecht zu sehen, so dass der Wert in y-Achsenrichtung (Höhenrichtung) in den Koordinatendaten für den Scheitelpunkt Pn an der weiter entfernten Seite der Linie um einen bestimmten Betrag erhöht wird, um die weiter entfernte Seite des Linien-Polygons vom Boden hochzuheben (S114). Dieser Prozess wird für jeden der Scheitel aller Linien-Polygone auf dem Bildschirm ausgeführt (S116).
  • Dadurch werden die weiter entfernten Seiten der Linienobjekte, die sich im virtuellen Spielraum befinden, hochgehoben, wie in 27 gezeigt ist, wodurch sie von der Kamera leicht zu sehen sind.
  • Nachstehend ist eine dritte Ausführungsform der vorliegenden Erfindung beschrieben. Die dritte Erfindung ist mit dem Einteilen des Spielfeldes (Fußballplatzes) in vorgeschriebene Bereiche, dem Bestimmen des Bereiches, in dem sich der Ball befindet, und dem Einstellen des Kamerawinkels derart, dass die Richtung, in welche sich der Ball bewegt (Richtung, in die der Spieler schauen möchte), leicht eingesehen werden kann, verbunden.
  • 32 bis 34 veranschaulichen die Richtungen, in welche Spieler, die mit der Spielvorrichtung spielen, bewegen sowie Kamerarichtungen, die beim Bewegen in solche Richtungen wünschenswert sind.
  • Erstens bewegt sich die Kamera im Wesentlichen, wie in 25 gezeigt ist, entlang der Seitenlinien und wird in der Spielerrichtung geführt. Selbstverständlich kann sich die Kamera auf das Feld bewegen, um dem Spiel zu folgen.
  • Wenn sich Spieler, gesteuert durch die Spieler, die mit der Spielvorrichtung spielen, in der Richtung zum Betrachter hin oder vom Betrachter weg (Richtung der z-Achse) in der x-y-Ebene bewegen (32a), wird die Kamera in Richtung der z-Achse geführt (32b).
  • Wenn sich die Spieler, gesteuert durch die Spieler, die mit der Spielvorrichtung spielen, nach links (in Richtung der -x-Achse) in der x-y-Ebene bewegen (33a), wird die Kamera aus der z-Achsenrichtung in einen bestimmten Winkel, wie etwa –15 Grad, geschwenkt, um die Bildschirmanzeige in dem Bereich in der Richtung, in welche sich der Ball bewegt, zu vergrößern (33b). Hier hat der im Uhrzeigersinn (im positiven Sinn) von der z-Achse aus gemessene Winkel einen positiven Wert, und Winkel, die gegen den Uhrzeigersinn (im negativen Sinn) gemessen werden, haben negative Werte.
  • Wenn sich Spieler, gesteuert durch die Spieler, die mit der Spielvorrichtung spielen, nach rechts (in Richtung der x-Achse) in der x-y-Ebene bewegen (34a), wird die Kamera aus der z-Achsenrichtung in einen bestimmten Winkel, wie etwa 15 Grad, geschwenkt, um die Bildschirmanzeige in dem Bereich in der Richtung, in welche sich der Ball bewegt, zu vergrößern (34b).
  • Ein Beispiel, bei dem die Richtung der Kamerasicht durch Kombinieren der Einstellung des Kamerawinkels und des Spielfeldbereiches festgelegt wird, ist mit Bezug auf 35 und 36 beschrieben.
  • Zuerst wird das Hauptprogramm für das Einstellen des seitlichen Winkels der Kamera gemäß der vorgeschriebenen zeitlichen Koordinierung (Bedingungen), die in dem in der Figur nicht gezeigten Hauptprogramm festgelegt ist, ausgeführt, und es wird bestimmt, ob der Hauptansichtspunkt der Kamera auf Seiten des Spielers oder auf Seiten des Balls ist (S132).
  • Wenn er auf Seiten des Spielers ist (S132, Spieler) ist, wird bestimmt, ob der Hauptansichtspunkt eine vorgeschriebene Entfernung, wie etwa 8 m oder weniger, vom Strafraum des Fußballspielfeldes entfernt ist oder nicht (S134). Wenn er innerhalb von 8 m ist (S134, ja), versammeln sich Gegner und Mitspieler aus der eigenen Mannschaft in der Nähe des Strafraums, wobei es mehr Gelegenheiten zum Abspielen oder Schießen gibt (37), so dass die Kamera um ungefähr –15 Grad in Bezug auf die z-Achse schwenkt, um eine bessere Sicht auf die Nähe des Strafraums zu bieten (S136, 38).
  • Wenn er mehr als 8 m vom Strafraum entfernt ist (S134, nein), wird die Richtung bestimmt, in welche sich der Spieler vorwärts bewegt (S138). Wenn sich der Spieler zum Betrachter hin (39) oder vom Betrachter weg (40) bewegt, ist der Winkel der Kamera in der x-z-Ebene 0 Grad in Bezug auf den Spieler (S140, 41). Wenn sich der Spieler nach links bewegt (42), ist der Winkel der Kamera in Bezug auf den Spieler –15 Grad von der z-Achse (S142, 43). Wenn sich der Spieler nach rechts bewegt (44), ist der Winkel der Kamera in Bezug auf den Spieler 15 Grad von der z-Achse (S144, 45).
  • Wenn der Ball der Hauptansichtspunkt der Kamera ist (S132, Ball), wird bestimmt, ob die Entfernung zwischen dem Ball und dem Spieler eine vorgeschriebene Entfernung ist, wie etwa 15 m oder mehr (S146). Bei 15 m oder mehr (S146, ja, 46) wird der Kamerawinkel so bestimmt, dass der Blickrichtungsvektor vom Ball zum Spieler unter einem Winkel von 20 Grad von der z-Achse ist (S154, 47). Wenn die Positionsbeziehung zwischen dem Spieler und dem Ball bezüglich der z-Achse entgegengesetzt ist, wird der Kamerawinkel so bestimmt, dass der Blickrichtungsvektor vom Ball zum Spieler –20 Grad beträgt (S154, 48).
  • Wenn die Entfernung zwischen dem Ball und dem Spieler keine bestimmte Entfernung, wie etwa 15 m oder mehr, ist (S146, nein), wird ermittelt, ob der Hauptansichtspunkt der Kamera innerhalb von 8 m von einem Strafraum ist oder nicht (S148). Wenn der Hauptansichtspunkt der Kamera innerhalb von 8 m vom Strafraum ist (S148, ja, 49), wird der Blickrichtungsvektor der Kamera auf einen Winkel von –15 Grad gesetzt (50). Wenn die Positionsbeziehung zwischen dem Ball und dem Spieler entgegengesetzt ist, wie in 48 gezeigt ist, wird die Richtung der Kamera auf 15 Grad von der z-Achse festgesetzt.
  • Wenn die Entfernung zwischen dem Ball und dem Spieler innerhalb von 15 m ist und der Hauptansichtspunkt der Kamera nicht innerhalb von 8 m vom Strafraum ist (S148, nein, 51), wird der Blickrichtungsvektor der Kamera auf 0 Grad in Bezug auf den Ball (0 Grad in Bezug auf die z-Achse) festgesetzt (52). Wenn diese Prozesse abgeschlossen sind, kehrt das System zum Hauptprogramm zurück.
  • Gelegentlich wird es schwierig, unter rechten Winkeln zu der Richtung, in welche sich der Spieler auf dem Bildschirm bewegt, zu spielen, nämlich in Fällen, in denen die Spielerbewegung in x- und z-Richtung durch den Spieler, der mit der Spielvorrichtung spielt, unter Verwendung einer Eingabevorrichtung, wie etwa eines Spielpads oder Joysticks, eingegeben wird, falls der Kamerawinkel von der z-Achse zu groß ist, wenn sich die Kamera entlang der Seitenlinien bewegt. Ein Kamerawinkel von ungefähr 15 Grad ist folglich vorteilhaft.
  • Der Kamerawinkel für den Spieler in der x-z-Ebene wird folglich entsprechend den Bereichen auf dem Spielfeld eingestellt, wodurch eine bessere Sicht in die Richtung geboten wird, in welche der Ball bewegt wird.
  • Nachstehend ist die Höhenwinkeleinstellung (in Richtung der y-Achse) der Kamera beschrieben. 53 ist ein Ablaufplan des Prozesses zum Einstellen des Höhenwinkels der Kamera, der gemäß der vorgeschriebenen zeitlichen Koordinierung (Bedingungen), die in dem in der Figur nicht gezeigten Hauptprogramm festgelegt ist, ausgeführt wird. Die Kamerahöhenposition ist gewöhnlich auf eine Höhe von ungefähr 10 m festgesetzt, jedoch nicht hierauf beschränkt. Das Hauptprogramm, das in 54 gezeigt ist, legt den Winkel fest, unter dem die Kamera das Spielfeld entsprechend den Spielbereichen beobachtet, d.h. die Position des Hauptansichtpunktes der Kamera wird bestimmt (S162). Wenn der Spieler der Hauptansichtspunkt ist (S162, Spieler), wird bestimmt, ob der Hauptansichtspunkt in der Nähe des Strafraums ist (S164). Wenn der Hauptansichtspunkt nicht in der Nähe des Strafraums ist (S164, nein), wird die Kamerarichtung so bestimmt, dass der Blickrichtungsvektor der Kamera –8 Grad von der z-Achse aufweist, um einen verhältnismäßig weites Blickfeld zu bieten (S166). Hier ist der Winkel negativ, wenn die Kamera nach unten blickt, er ist positiv, wenn die Kamera nach oben blickt, und er ist 0, wenn die Kamera waagerecht ist. Wenn der Hauptansichtspunkt in der Nähe des Strafraums ist (S164, ja), wird die Kamerarichtung so bestimmt, dass der Blickrichtungsvektor der Kamera –11 Grad von der z-Achse ist (S168). Dies ermöglicht, der Kamera einen besseren Überblick über das Feld zu geben, was Bilder zur Folge hat, die eine bessere Wahrnehmung von Tiefe und Ausmaß ermöglichen.
  • Wenn der Ball der Hauptansichtspunkt ist (S162, Ball), wird bestimmt, ob der Hauptansichtspunkt in der Nähe des Strafraums ist oder nicht (S170). Wenn der Hauptansichtspunkt nicht in der Nähe des Strafraums ist (S170, nein), wird die Kamerarichtung so bestimmt, dass der Blickrichtungsvektor der Kamera –11 Grad von der z-Achse ist (S166). Wenn der Hauptansichtspunkt in der Nähe des Strafraums ist (S710, ja), wird die Kamerarichtung so bestimmt, dass der Blickrichtungsvektor der Kamera –13 Grad von der z-Achse ist (S174).
  • Nach Abschluss dieser Prozesse kehrt das System zum Hauptprogramm zurück.
  • 55 ist ein Ablaufplan für die Zoom-Einstellung der Kamera. Wenn im Hauptprogramm bestimmt wird, dass eine Kamera-Zoom-Einstellung erforderlich ist, geht der Prozess zur Hauptroutine über.
  • Zuerst wird bestimmt, ob der Hauptansichtspunkt der Kamera in der Nähe eines Strafraums ist oder nicht (S182). Wenn er in der Nähe eines Strafraums ist, zoomt die Kamera auf eine vorgeschriebene Entfernung vom Hauptansichtspunkt herunter (S184). Dies ermöglicht, den gesamten Strafraum zu sehen.
  • Wenn sich der Hauptansichtspunkt der Kamera nicht in der Nähe des Strafraums befindet (S182, nein) und der Spieler außerhalb des Bildschirms ist (S186, ja), zoomt die Kamera herunter, um den Spieler auf den Bildschirm zu projizieren (S188). Wie in 56 gezeigt ist, zoomt die Kamera dann, wenn der Spieler auf dem Bildschirm ist (S186, nein) und sich in 3/4 des Bildschirms befindet (S190, ja), auf eine vorgeschriebene Entfernung vom Hauptansichtspunkt (S190) hoch. Dies ermöglicht Großaufnahmen von Spielern in Situationen, in denen ein fester Bereich nicht sichtbar ist. Wenn der Spieler auf den Bildschirm projiziert wird, aber in 3/4 des Bildschirms ist (S190, nein), wird der Abstand zwischen der Kamera und dem Hauptansichtspunkt beibehalten (S194).
  • 57 ist ein Ablaufplan eines weiteren Beispiels, das die Anzeige von Objekten ermöglicht, deren Verschwinden vom Bildschirm verhindert werden soll, wie etwa der zuvor erwähnten Linien-Polygone.
  • In der Figur werden Attributdaten, die angeben, dass das Verschwinden eines Objekts verhindert werden soll, zu den Daten der Polygone hinzugefügt, deren Verschwinden verhindert werden soll. Wenn Objektgruppen im Sehfeld der virtuellen Kamera auf dem Bildschirm angezeigt werden, bestimmt das Computersystem, ob es Polygone gibt, deren Verschwinden aus dem Sehfeld verhindert werden soll (S202).
  • Wenn es Polygone gibt, deren Verschwinden verhindert werden soll, wie etwa Linien-Polygone (S202, ja), wird ein Programm ausgelöst, das verhindert, dass Polygone verschwinden, d.h., wie in 58 gezeigt ist, dass ein Einheitsblickrichtungsvektor vom Hauptansichtspunkt der Kamera und der Position der Kamera bestimmt (S204). Der Einheitsnormalenvektor wird anhand der Daten für die Polygone bestimmt, deren Verschwinden verhindert werden soll (S206). Es wird der Winkel zwischen dem Einheitsblickrichtungsvektor und dem Einheitsnormalenvektor ermittelt. Dieser kann als das Skalarprodukt des Einheitsblickrichtungsvektors und des Einheitsnormalenvektors bestimmt werden (S208). Die Polygon-Scheitelpunkt-Koordinatenwerte werden so angepasst, dass der Winkel ein vorgeschriebener Winkel ist (S210). Der Prozess vom Schritt 204 bis zum Schritt 210 wird für jedes Polygon ausgeführt, dessen Verschwinden aus dem Sehfeld verhindert werden soll. Hier entspricht der Schritt 202 Mitteln zur Verhinderung eines solchen Verschwindens, die Schritte 204 bis 208 entsprechen Winkelberechnungsmitteln und der Schritt 310 entspricht Polygon-Kippmitteln.
  • Dies ermöglicht, Linien und dergleichen, die für ein Spiel unentbehrlich sind, vor einem Verschwinden zu bewahren.
  • Die vorliegende Erfindung ist nicht auf Fußballspiele beschränkt, sondern auf eine Vielfalt von Spielen anwendbar, bei denen ein Platz oder Spielfeld durch Linien beschrieben ist, wie etwa Tennis, Baseball, Basketball, Volleyball, Rugby und American Football.
  • Das Zoomen der Kamera wird folglich gemäß dem Bereich und Anzeigezustand angepasst.
  • Ein Programm zur Ausführung der zuvor erwähnten Bildverarbeitungsvorrichtung und zur Ausführung des Verfahrens zum Anzeigen von Bildern an einem Computersystem kann als eine Aufzeichnung auf Datenaufzeichnungsmedien wie etwa CD-ROMs, DVD-ROMs und ROM-Kassetten zur Verfügung gestellt werden.
  • Die mit Bezug auf 8 bis 17 beschriebene Ausführungsform ist nicht auf Ausführungsformen beschränkt, bei denen die Oberflächen von Polygonen A bis D'' mit Texturen von Zuschauern, die den Blick auf das Spielfeld richten, abgebildet werden, d.h. Beispiele für Anzeigeobjekte, die in dem dreidimensionalen virtuellen Raum, der als Spielraum dient, angezeigt werden. Beispielsweise können von den Texturen, die auf Polygonoberflächen abgebildet werden, Teile des Hintergrunds, die von den für Zuschauer modellierten Anzeigeobjekten verschieden sind, als durchsichtige Teiltexturen verwendet werden, und Teile der Anzeigeobjekte können als undurchsichtige Teiltexturen verwendet werden.
  • 59 ist eine schematische Darstellung solcher Texturen. Der Bereich der undurchsichtigen Teiltextur schließt die Zuschaueranzeigeobjekte 300 und bei Bedarf Teilbereiche der Umgebung 301 ein. 60 ist ein Beispiel für Textur, die mit einer weiteren Zuschauer-Ausführungsform im Zusammenhang steht. Der Hintergrund 302 ist in ähnlicher Weise aus durchsichtigen Stücken, und die 304 sind undurchsichtige Stücke. Diese Textur wird auf Polygone abgebildet, die von den Polygonen verschieden sind, die mit der Textur von 59 abgebildet werden, wobei Polygone, die mit der Textur von 60 abgebildet werden, vor den Polygonen angeordnet werden, die mit der Textur von 59 abgebildet werden, d.h. mehr auf Seiten des virtuellen Ansichtspunktes. 61 zeigt einen Zustand, in dem diese Texturen aufeinander geschichtet, d.h. übereinander liegend sind, wie in 8 bis 17 gezeigt ist. Die 304 in 60 sind dem durchsichtigen Hintergrundabschnitt von 59 überlagert. Folglich werden, wenn die Polygone in 59 und 60 überlagert sind, Zuschauer mit zwei Texturen auf dem Bildschirm angezeigt, wobei sie gemischt, gruppiert und überlagert sind. Wenn Zuschauer, die jene Polygonfiguren sind, einander überdecken, sind jene in Richtung des tiefsten Teils im dreidimensionalen Raum, d.h. Zuschauer aus Polygonen mit der niedrigsten Priorität, unter Polygonen mit der höchsten Priorität und werden nicht auf dem Bildschirm angezeigt.
  • Zuschauerbewegungen können auf die gleiche Art und Weise wie bei der vorhergehenden Ausführungsform des Zuschauerverhaltens durch Bewegen mehrerer Polygone, die mit solchen Texturen abgebildet werden, entlang Ebenen, die senkrecht zu der Richtung sind, in welcher die mehreren Polygone überlagert sind, oder ansonsten die Richtung schneiden, oder in einer Richtung, welche die der virtuellen Kamera zugewandten Polygone A bis D'' im dreidimensionalen Raum schneidet, oder in einer Richtung, welche die Richtung, in der sie überlagert sind, schneidet, wie in 8 bis 17 gezeigt ist, wiedergegeben oder simuliert werden.
  • 62 und 63 sind einem Fall zugeordnet, bei dem die Polygone 400, die in 59 dargestellt sind, den Polygonen 402, die in 60 dargestellt sind, überlagert sind, wobei 62 die Polygone 400 zeigt, die sich nach oben bewegen, und 63 die Polygone 402 zeigt, die sich nach oben bewegen.
  • Folglich können bei der vorliegenden Erfindungen Bewegungen, wie etwa jene verschiedener Anzeigeobjekte, die sich wie im Falle der rings um ein Fußballspielfeld angeordneten Zuschauer bewegen, Bewegungen von Gruppen, die aus verschiedenen Anzeigeobjekten bestehen, und Bewegungen in Fällen, in denen verschiedene Anzeigeobjekte vorzugsweise in verschiedene Blöcke unterteilt sind und bewegt werden, wobei die Blöcke gesteuert werden (Bewegungen von Tieren und Insekten) effizienter erzeugt werden. Solche Bewegungen werden in spezifischen Betriebsarten erzeugt, wie etwa im Falle von Fußballspielen, wenn Sportler, die um den Ball kämpfen, ein Tor schießen. Man möchte es gar nicht wiederholen, dass die hier beschriebenen Texturen Bilddaten sein können, darunter Figuren, wie etwa Zuschauer, und Hintergrund (Wolken, Wellen usw.). Außerdem kann, statt die Hintergrundabschnitte in 59 mit durchsichtigen Texturen zu konstruieren, Textur einer einzelnen Farbe benutzt werden, und die Textur in 60 kann aus Textur in einer anderen Farbe, die von dieser Einzelfarbe unterscheidbar ist, konstruiert sein. Außerdem kann der Hintergrundabschnitt von 60 aus einer einfarbigen Textur gebildet sein, und es kann der Hintergrundabschnitt von 59 verwendet werden, da er durchsichtige Farben aufweist, wobei zumindest die Profile der Figuren in 59 nicht in der zuvor erwähnten Einzelfarbe sind. In dem Fall von 8 bis 17 wurden die Polygone, ohne hierauf beschränkt zu sein, so an Positionen angeordnet, dass sie sich in dem virtuellen Raum allmählich nach oben neigen; so können die Polygone auch in einer virtuellen Bezugsebene angeordnet sein.
  • Bei den zuvor erwähnten Ausführungsformen waren die Augen einer Figur auf ein Ziel gerichtet, wenn bestimmt wurde, ob die Beziehung zu dem Spielinhalt oder die Positions beziehung, wie etwa die Entfernung zwischen Figuren und dem Ziel, während des Spiels derart war, dass die zuvor erwähnten Figuren bestimmte Bedingungen erfüllten, so dass, wenn eine Figur kämpfte, während sie beispielsweise bei einem Fußballspiel den Ball dribbelte, sie in andere Richtungen blickte, um Mitspieler oder Abspielzonen zu suchen, so dass es möglich war, das Verhalten tatsächlicher Fußballspieler auf realistischere Weise zu simulieren, indem natürlichere Bewegungen dargeboten wurden, und mehr Realismus und Unmittelbarkeit zu erzielen.
  • Die Steuerung des Ansichtspunktes liefert solche Effekte wie 1) eine Beeinflussung der Strategien, die in dem Spiel zur Anwendung kommen, und des Schwierigkeitsgrades des Spiels, und 2), bei Ballspielen, eine Erleichterung des Verständnisses und Spielens von Situationen oder von Orten, zu denen der Ball abgespielt werden kann (sollte), basierend auf dem Verhalten von Figuren im Ballbesitz.
  • In den Ausführungsformen werden mehrere Polygone, die mit Textur abgebildet werden, die für mehrere Zuschauer modelliert ist, virtuell überlagert, und die mehreren Polygone werden in einer Richtung bewegt, welche die Richtung schneidet, in der sie überlagert sind, so dass die vielfältigen Bewegungen (ein realistischeres Verhalten) einzelner Zuschauer dargestellt werden können. Die Software-Ausgestaltung ist vereinfacht, die Rechenbelastung ist herabgesetzt und die Speicherkapazität kann verringert werden. Diese und weitere Anforderungen können gleichzeitig angegangen werden, und die Unmittelbarkeit des Spiels kann weiter verbessert werden.
  • Außerdem wird in den Ausführungsformen die Zeit des Spiels, das von einem Spielvorrichtungsspieler gespielt wird, erfasst, und die Bildschirmfarben für die Bilder werden gemäß dieser Zeit durch Korrekturen festgelegt, basierend auf Bildschirmfarben, die vorher für Spiele optimiert worden sind, so dass Darstellungen mit Veränderungen bei den Bildschirmfarben entsprechend der Zeit, zu der das Spiel gespielt wird, hinzugefügt werden, wodurch es möglich ist, die Bildschirmfarben fortwährend auf Stand zu halten, derart, dass eine Beeinträchtigung des Spiels vermieden wird. Es ist auch möglich, die Nachteile zu vermeiden, die auftreten, wenn der Bildschirm-Farbzustand unter ausschließlicher Verwendung der Luminanz angepasst wird, wie in der Vergangenheit, und es ist außerdem möglich, über den Tag hinweg konsequenter und genauer Änderungen der Helligkeit vorzunehmen, die zu dem Farbzustand des Anzeigebildschirms passen, wodurch die Unmittelbarkeit des Spiels weiter verbessert wird.
  • Mitunter treten bei Spielen, die sich im dreidimensionalen virtuellen Raum entwickeln, Polygone auf, die im virtuellen Raum aufgrund der Kameraposition schwer zu erkennen sind, weshalb in einer weiteren Ausführungsform beispielsweise Linienobjekte, die auf den Boden gezeichnet sind, mittels Bildverarbeitung vor einem Verschwinden bewahrt werden.
  • Noch eine weitere Ausführungsform schafft eine Spielvorrichtung, bei der die Kameraposition, die Kamerarichtung, der Bereich des Sehfeldes und dergleichen gemäß der Richtung, in welche sich die Objekte bewegen, oder gemäß Spielbereichen eingestellt werden, wodurch sich ein Bildschirm ergibt, der das Spielen der Spiele erleichtert.
  • GEWERBLICHE ANWENDBARKEIT
  • Wie weiter oben beschrieben ist, ermöglicht die Bildverarbeitungsvorrichtung der vorliegenden Erfindung Simulationen (wie etwa Spiele) im virtuellen Raum bei einer besseren Sichtbarkeit und Unmittelbarkeit für Betrachter (wie etwa Personen, die mit der Spielvorrichtung spielen). Die Erfindung eignet sich insbesondere für Video-(oder fernsehergeeignete)Spielvorrichtungen.

Claims (26)

  1. Bildverarbeitungsvorrichtung zur Anzeige von Verhältnissen im virtuellen dreidimensionalen Raum in Form von Bildern, wie von einer virtuellen Kamera gesehen, wobei die Bildverarbeitungsvorrichtung Folgendes umfasst: ein Mittel zur Anzeige von Polygonen, die sich in dem virtuellen dreidimensionalen Raum befinden; ein Bestimmungsmittel zum Bestimmen der Lagebeziehung zwischen den Polygonen und der virtuellen Kamera; und ein Polygon-Kippmittel zum Kippen der Polygone entsprechend den von den Bestimmungsmitteln bestimmten Ergebnissen, um die Oberfläche der Polygone, die von der virtuellen Kamera gesehen werden, zu vergrößern, damit sich für die virtuelle Kamera die Sichtbarkeit der Polygone verbessert.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei sich die Polygone in einer Bezugsebene befinden, die als Bezug in dem virtuellen dreidimensionalen Raum dient.
  3. Bildverarbeitungsvorrichtung nach Anspruch 2, wobei die Polygone derart sind, dass sie in der Bezugsebene Linien bilden.
  4. Bildverarbeitungsvorrichtung nach Anspruch 2 oder Anspruch 3, wobei die Bezugsebene der Boden ist.
  5. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Polygone vierseitig sind und das Polygon-Kippmittel so betriebsfähig ist, dass es die Koordinatenwerte der Scheitelpunkte an einer der einander zugewandten Seiten der Polygone modifiziert.
  6. Bildverarbeitungsvorrichtung nach einem der Ansprüche 2 bis 4, wobei das Polygon-Kippmittel so betriebsfähig ist, dass es ermöglicht, dass die Scheitelpunkte im Inneren der Polygone, bezogen auf die virtuelle Kamera, aus der Bezugsebene herausragen, während auf die Scheitelpunkte im Vordergrund, bezogen auf die virtuelle Kamera, der Polygone zentriert wird.
  7. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Bildverarbeitungsvorrichtung ein bildaufbereitendes Anzeigemittel aufweist, um den virtuellen Raum, der mit einem dreidimensionalen Modell konstruiert ist, das aus den Polygonen besteht, in zweidimensionale Bilder, wie von der virtuellen Kamera gesehen, zu konvertieren und diese auf einer Anzeigevorrichtung anzuzeigen, wobei das Bestimmungsmittel einen Winkelrechner zum Berechnen des Winkels zwischen einem Blickrichtungsvektor, der die Richtung repräsentiert, in welche die virtuelle Kamera blickt, und einem Normalenvektor, der die Orientierung der Ebene bestimmter Polygone, die sich in dem virtuellen Raum befinden, repräsentiert, umfasst; und wobei das Polygon-Kippmittel so betriebsfähig ist, dass die Koordinatenwerte der Scheitelpunkte der Polygone so verändert werden, dass der von dem Winkelrechner berechnete Winkel einen bestimmten Wert annimmt.
  8. Spielvorrichtung mit einer Bildverarbeitungsvorrichtung nach Anspruch 1 zur Ausführung eines Spiels durch Anordnen von Objekten in dem virtuellen dreidimensionalen Raum und Steuern der Bewegungen der Objekte entsprechend einer Spieler-Eingabesteuerung und festgelegten Regeln.
  9. Spielvorrichtung nach Anspruch 8, wobei das Spiel derart ist, dass Objekte in einer Ebene angeordnet sind und die Polygone derart sind, dass sie Linien bilden, die in die Ebene eingeschrieben sind.
  10. Spielvorrichtung mit einer Bildverarbeitungsvorrichtung nach Anspruch 2 oder Anspruch 6 zum Ausführen eines Spiels durch Anordnen von Objekten in dem virtuellen dreidimensionalen Raum und durch Steuern der Objekte entsprechend der Spieler-Eingabesteuerung und festgelegten Regeln.
  11. Spielvorrichtung nach Anspruch 10, wobei das Spiel derart ist, dass Objekte auf einem Spielfeld angeordnet sind, das in der Bezugsebene ausgebildet ist, und die Polygone derart sind, dass sie Linien bilden, die in das Spielfeld eingeschrieben sind.
  12. Spielvorrichtung nach Anspruch 8, wobei sich die Polygone in einer Bezugsebene befinden, die als Bezugsebene im virtuellen Raum dient; und das Bestimmungsmittel so betriebsfähig ist, dass es die Winkelbeziehung zwischen der Blickrichtung der virtuellen Kamera und dem Polygon bestimmt.
  13. Spielvorrichtung nach Anspruch 8, ferner umfassend: weitere Bestimmungsmittel, um zu bestimmen, ob ein Objekt in einem spezifischen Bereich in dem virtuellen Raum ist; und ein Kamerawinkel-Einstellmittel zum Einstellen des Winkels der virtuellen Kamera auf der Grundlage der Ergebnisse der Bestimmung.
  14. Spielvorrichtung nach Anspruch 13, wobei das Kamera winkel-Einstellmittel so betriebsfähig ist, dass es ferner den Winkel der virtuellen Kamera auf der Grundlage der Richtung, in welche sich das Objekt gerade bewegt, einstellt.
  15. Spielvorrichtung nach Anspruch 13 oder 14, wobei das Kamerawinkel-Einstellmittel fähig ist, den Winkel der virtuellen Kamera in seitlicher und vertikaler Richtung in dem virtuellen Raum einzustellen.
  16. Bildverarbeitungsvorrichtung nach Anspruch 3, wobei das Polygon-Kippmittel so ausgelegt ist, dass es die Polygone kippt, wenn die Linien bildenden Polygone mindestens einen vorher festgelegten Abstand von der virtuellen Kamera haben.
  17. Datenaufzeichnungsmedien, die ein Programm enthalten, das einem Computersystem ermöglicht, als eine Bildverarbeitungsvorrichtung oder eine Spielvorrichtung nach einem der Ansprüche 1 bis 16 zu funktionieren.
  18. Spielvorrichtung nach Anspruch 9, wobei die Polygone Linien auf einem Feld bei einem Ballspiel und die Objekte Teilnehmer an dem Ballspiel und der Ball sind.
  19. Spielvorrichtung nach Anspruch 8, wobei die Objekte Teilnehmer an einem Ballspiel und ein Ball sind.
  20. Spiel-Bildverarbeitungsverfahren, das eine Spielvorrichtung verwendet, um mittels eines Computersystems Objekte im virtuellen Raum anzuordnen, ein Spiel zu entwickeln, während gleichzeitig die Bewegungen und Positionen der Objekte gesteuert werden, und Bilder in dem virtuellen Raum, wie sie von einer virtuellen Kamera, die an einem vorgegebenen Blickpunkt positioniert ist, gesehen werden, als einen Bildschirm anzuzeigen, wobei das Spiel-Bildverarbeitungsverfahren die folgenden Schritte umfasst: Bestimmen einer Lagebeziehung zwischen einem Linien-Polygon, das entlang einer Bezugsebene angeordnet ist, die als Bezug in dem virtuellen Raum dient, und der virtuellen Kamera; und Kippen des Polygons entsprechend der Lagebeziehung, so dass, mit der virtuellen Kamera betrachtet, eine Fläche des Linien-Polygons zunimmt, wodurch die Sichtbarkeit des Polygons verbessert wird.
  21. Spiel-Bildverarbeitungsverfahren nach Anspruch 20, wobei der Bestimmungsschritt ein Berechnen eines Winkels zwischen einem Blickrichtungsvektor, der die Richtung repräsentiert, in welche die virtuelle Kamera blickt, und einem Normalenvektor, der die Orientierung einer Ebene bestimmter Polygone, die sich in dem virtuellen Raum befinden, umfasst; und der Kippschritt ein Verändern der Koordinatenwerte der Scheitelpunkte der Polygone derart, dass der Winkel einen gewünschten Wert hat, umfasst.
  22. Spiel-Bildverarbeitungsverfahren nach Anspruch 20 oder Anspruch 21, ferner folgenden Schritt umfassend: Einstellen einer Richtung der virtuellen Kamera auf der Grundlage einer Bewegungsrichtung eines Objekts, das durch ein Eingabesignal gesteuert ist, das von einem Spieler eingegeben wird, der eine Eingabevorrichtung steuert.
  23. Spiel-Bildverarbeitungsverfahren nach Anspruch 20 oder 21, ferner folgenden Schritt umfassend: Einstellen einer Richtung der virtuellen Kamera auf der Grundlage einer Position eines Objekts, das durch einen Spieler gesteuert ist, und eines Aufmerksamkeitspunktes der virtuellen Kamera, der einem vorher festgelegten Bereich des virtuellen Raumes entspricht.
  24. Spiel-Bildverarbeitungsverfahren nach Anspruch 23, ferner folgenden Schritt umfassend: Zoomen der virtuellen Kamera auf der Grundlage des Aufmerksamkeitspunktes der virtuellen Kamera und der Position des von dem Spieler gesteuerten Objekts.
  25. Spiel-Bildverarbeitungsverfahren nach Anspruch 20 oder Anspruch 21, wobei die Bezugsebene der Boden ist und die Linienpolygone Polygone sind, die Linien bilden, die sich auf dem Boden befinden.
  26. Spiel-Bildverarbeitungsverfahren nach Anspruch 20 oder Anspruch 21, wobei die Linienpolygone Linien auf einem Feld bei einem Ballspiel sind und die Objekte Teilnehmer an dem Ballspiel und ein Ball sind.
DE69833482T 1997-02-18 1998-02-18 Verfahren und vorrichtung zur bildverarbeitung Expired - Lifetime DE69833482T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP3416397 1997-02-18
JP9034163A JP2955989B2 (ja) 1997-02-18 1997-02-18 ゲーム装置
JP3408997 1997-02-18
JP3408997 1997-02-18
PCT/JP1998/000677 WO1998035734A1 (fr) 1997-02-18 1998-02-18 Dispositif et procede pour le traitement des images

Publications (2)

Publication Number Publication Date
DE69833482D1 DE69833482D1 (de) 2006-04-20
DE69833482T2 true DE69833482T2 (de) 2006-10-12

Family

ID=26372888

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69833482T Expired - Lifetime DE69833482T2 (de) 1997-02-18 1998-02-18 Verfahren und vorrichtung zur bildverarbeitung

Country Status (8)

Country Link
US (3) US6989829B2 (de)
EP (2) EP0901803B1 (de)
KR (1) KR100300832B1 (de)
CN (2) CN1188193C (de)
DE (1) DE69833482T2 (de)
ES (1) ES2260830T3 (de)
HK (1) HK1081135A1 (de)
WO (1) WO1998035734A1 (de)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0901803B1 (de) * 1997-02-18 2006-02-15 Sega Corporation Verfahren und vorrichtung zur bildverarbeitung
JP2000153061A (ja) * 1998-11-19 2000-06-06 Nintendo Co Ltd ビデオゲーム装置およびビデオゲーム用情報記憶媒体
US6712703B2 (en) 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
US6612930B2 (en) 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
JP2000153063A (ja) * 1998-11-19 2000-06-06 Nintendo Co Ltd ビデオゲーム装置およびビデオゲーム用情報記憶媒体
TW452748B (en) * 1999-01-26 2001-09-01 Ibm Description of video contents based on objects by using spatio-temporal features and sequential of outlines
CN101383909B (zh) * 2000-01-26 2013-03-20 索尼公司 信息处理设备和信息处理方法
US7085995B2 (en) * 2000-01-26 2006-08-01 Sony Corporation Information processing apparatus and processing method and program storage medium
US7685534B2 (en) * 2000-02-16 2010-03-23 Jlb Ventures Llc Method and apparatus for a three-dimensional web-navigator
US7593014B2 (en) * 2001-05-21 2009-09-22 Kabushiki Kaisha Sega Image processing apparatus and game apparatus
JP3594915B2 (ja) * 2001-08-03 2004-12-02 株式会社ナムコ プログラム、情報記憶媒体及びゲーム装置
WO2003031003A1 (en) * 2001-10-10 2003-04-17 Sony Computer Entertainment America Inc. Providing game information via characters in a game environment
US6952207B1 (en) * 2002-03-11 2005-10-04 Microsoft Corporation Efficient scenery object rendering
US20030227453A1 (en) * 2002-04-09 2003-12-11 Klaus-Peter Beier Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
JP4079358B2 (ja) * 2002-12-06 2008-04-23 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御方法、及びプログラム
DE10325382A1 (de) * 2003-05-30 2004-12-23 Karl Storz Gmbh & Co. Kg Verfahren und Vorrichtung zum Visualisieren von medizinischen Patientendaten auf einer medizinischen Anzeigeeinheit
US7420574B2 (en) * 2004-04-16 2008-09-02 Autodesk, Inc. Shape morphing control and manipulation
US7064761B2 (en) 2004-05-10 2006-06-20 Pixar Techniques for animating complex scenes
JP4474640B2 (ja) * 2004-05-11 2010-06-09 株式会社セガ 画像処理プログラム、ゲーム処理プログラムおよびゲーム情報処理装置
JP2006018476A (ja) * 2004-06-30 2006-01-19 Sega Corp 画像の表示制御方法
JP2006060652A (ja) * 2004-08-23 2006-03-02 Fuji Photo Film Co Ltd デジタルスチルカメラ
KR100612874B1 (ko) * 2004-11-22 2006-08-14 삼성전자주식회사 스포츠 동영상의 요약 방법 및 장치
JP4488996B2 (ja) * 2005-09-29 2010-06-23 株式会社東芝 多視点画像作成装置、多視点画像作成方法および多視点画像作成プログラム
JP4706966B2 (ja) * 2005-12-06 2011-06-22 株式会社セガ 画像生成プログラム、画像処理装置
JP5025950B2 (ja) * 2005-12-12 2012-09-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP4125758B2 (ja) * 2006-02-27 2008-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
CN100437608C (zh) * 2006-04-30 2008-11-26 珠海市西山居软件有限公司 游戏中虚拟人物作交互动作的装置和方法
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
JP4707034B2 (ja) * 2006-07-07 2011-06-22 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、入力インタフェース装置
US20080039967A1 (en) * 2006-08-11 2008-02-14 Greg Sherwood System and method for delivering interactive audiovisual experiences to portable devices
US20080231627A1 (en) * 2007-03-20 2008-09-25 Robert Allen Shearer Using Ray Tracing to Enhance Artificial Intelligence Character Behavior
JP4929061B2 (ja) * 2007-06-04 2012-05-09 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4964057B2 (ja) * 2007-08-08 2012-06-27 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US9108108B2 (en) 2007-09-05 2015-08-18 Sony Computer Entertainment America Llc Real-time, contextual display of ranked, user-generated game play advice
US9126116B2 (en) 2007-09-05 2015-09-08 Sony Computer Entertainment America Llc Ranking of user-generated game play advice
GB2454681A (en) * 2007-11-14 2009-05-20 Cybersports Ltd Selection of animation for virtual entity based on behaviour of the entity
CN101593362B (zh) * 2008-05-26 2012-09-05 新奥特(北京)视频技术有限公司 一种图形的路径构建方法
GB2465538B (en) 2008-08-01 2013-03-13 Sony Corp Method and apparatus for generating an event log
JP4498449B2 (ja) * 2008-08-22 2010-07-07 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US8914854B2 (en) * 2008-09-11 2014-12-16 International Business Machines Corporation User credential verification indication in a virtual universe
US8412662B2 (en) * 2009-06-04 2013-04-02 Motorola Mobility Llc Method and system of interaction within both real and virtual worlds
US20120210205A1 (en) 2011-02-11 2012-08-16 Greg Sherwood System and method for using an application on a mobile device to transfer internet media content
US11647243B2 (en) 2009-06-26 2023-05-09 Seagate Technology Llc System and method for using an application on a mobile device to transfer internet media content
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
US8798777B2 (en) 2011-03-08 2014-08-05 Packetvideo Corporation System and method for using a list of audio media to create a list of audiovisual media
RU2479040C1 (ru) * 2011-12-23 2013-04-10 Владимир Евгеньевич Афоньшин Способ тактической подготовки команды в игровых видах спорта
US9833707B2 (en) 2012-10-29 2017-12-05 Sony Interactive Entertainment Inc. Ambient light control and calibration via a console
CN105204805B (zh) * 2015-09-15 2018-08-03 网易(杭州)网络有限公司 一种基于高度变化的3d动态路标显示方法和显示装置
KR102434406B1 (ko) * 2016-01-05 2022-08-22 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
JP7314475B2 (ja) * 2016-11-11 2023-07-26 セイコーエプソン株式会社 ロボット制御装置、及び、ロボット制御方法
CN106570914B (zh) * 2016-11-15 2020-01-14 华南理工大学 一种移植二维图像中角色的姿态的方法
KR101931564B1 (ko) 2017-03-03 2018-12-24 한국과학기술원 영상 정합을 이용한 영상 처리 장치 및 방법
US10561942B2 (en) 2017-05-15 2020-02-18 Sony Interactive Entertainment America Llc Metronome for competitive gaming headset
JP6223617B1 (ja) * 2017-05-26 2017-11-01 株式会社テクテック 仮想地図表示システム、プログラム及び方法
US10128914B1 (en) 2017-09-06 2018-11-13 Sony Interactive Entertainment LLC Smart tags with multiple interactions
CN108159701B (zh) * 2017-12-27 2021-02-12 网易(杭州)网络有限公司 游戏角色显示位置的调整方法、装置、处理器及终端
CN110009714A (zh) * 2019-03-05 2019-07-12 重庆爱奇艺智能科技有限公司 在智能设备中调整虚拟角色眼神的方法及装置
CN111311523B (zh) * 2020-03-26 2023-09-05 北京迈格威科技有限公司 图像处理方法、装置、系统和电子设备
JP7233399B2 (ja) * 2020-06-23 2023-03-06 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE8801043D0 (sv) 1988-03-22 1988-03-22 Orjan Strandberg Genimator
US6054991A (en) * 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH05249953A (ja) 1991-12-03 1993-09-28 Toshiba Corp 画像表示装置
JP2914823B2 (ja) 1992-05-27 1999-07-05 株式会社ハドソン 奥行き表現方法
US5363297A (en) * 1992-06-05 1994-11-08 Larson Noble G Automated camera-based tracking system for sports contests
JP2807608B2 (ja) * 1992-12-29 1998-10-08 株式会社ナムコ ソーティング処理装置、これを用いた画像合成装置及びソーティング処理方法
JP2539153B2 (ja) 1993-03-19 1996-10-02 インターナショナル・ビジネス・マシーンズ・コーポレイション 仮想会議システム用端末装置及び仮想会議システム
JP2888723B2 (ja) 1993-03-26 1999-05-10 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP3496205B2 (ja) * 1993-12-21 2004-02-09 株式会社セガ ゲーム機における球技ゲームでの視点変更方法
CN1071583C (zh) * 1994-06-20 2001-09-26 世雅企业股份有限公司 目标方向控制方法和设备
CN1114456C (zh) * 1994-06-28 2003-07-16 世嘉企业股份有限公司 游戏装置及游戏的重放方法
JPH0884861A (ja) * 1994-09-14 1996-04-02 Taito Corp Tvボールゲーム
US6608622B1 (en) * 1994-10-14 2003-08-19 Canon Kabushiki Kaisha Multi-viewpoint image processing method and apparatus
JP3431320B2 (ja) * 1994-12-01 2003-07-28 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
JP3538248B2 (ja) * 1994-12-02 2004-06-14 株式会社ナムコ 画像合成装置及び画像合成方法
JP3651943B2 (ja) * 1994-12-09 2005-05-25 オリンパス株式会社 アイコン作成方法及び動画用のコマ作成方法
BR9603888A (pt) 1995-01-19 1997-10-07 Sega Enterprises Kk Método de processamento de imagem e dispositivo de processamento de imagem
JP3442181B2 (ja) * 1995-02-17 2003-09-02 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
US6768563B1 (en) * 1995-02-24 2004-07-27 Canon Kabushiki Kaisha Image input system
JPH08257238A (ja) 1995-03-24 1996-10-08 Taito Corp ビデオゲーム機
US5651104A (en) * 1995-04-25 1997-07-22 Evans & Sutherland Computer Corporation Computer graphics system and process for adaptive supersampling
WO1996034364A1 (fr) * 1995-04-27 1996-10-31 Sega Enterprises Ltd. Dispositif de traitement d'images, procede de traitement d'images, appareil de jeu les utilisant et support de memoire
JP3141737B2 (ja) * 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
JP3461980B2 (ja) * 1995-08-25 2003-10-27 株式会社東芝 高速描画方法および装置
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
JP3544268B2 (ja) * 1995-10-09 2004-07-21 任天堂株式会社 三次元画像処理装置およびそれを用いた画像処理方法
EP0856174A4 (de) 1995-10-13 2000-03-08 James B Roseborough Technik zum animieren und simulieren von geschöpfen
US6267673B1 (en) * 1996-09-20 2001-07-31 Nintendo Co., Ltd. Video game system with state of next world dependent upon manner of entry from previous world via a portal
US5990896A (en) * 1996-09-30 1999-11-23 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Rapid and efficient terrain surface finding system
US6280323B1 (en) * 1996-11-21 2001-08-28 Konami Co., Ltd. Device, method and storage medium for displaying penalty kick match cursors in a video soccer game
US5953077A (en) * 1997-01-17 1999-09-14 Fox Sports Productions, Inc. System for displaying an object that is not visible to a camera
EP0901803B1 (de) * 1997-02-18 2006-02-15 Sega Corporation Verfahren und vorrichtung zur bildverarbeitung
US20020049690A1 (en) * 2000-06-16 2002-04-25 Masanori Takano Method of expressing crowd movement in game, storage medium, and information processing apparatus

Also Published As

Publication number Publication date
US20090115781A1 (en) 2009-05-07
US20010040575A1 (en) 2001-11-15
CN1640519B (zh) 2010-06-09
EP0901803A4 (de) 2001-02-28
CN1188193C (zh) 2005-02-09
HK1081135A1 (en) 2006-05-12
US6989829B2 (en) 2006-01-24
KR20000064948A (ko) 2000-11-06
CN1640519A (zh) 2005-07-20
CN1217668A (zh) 1999-05-26
US7737968B2 (en) 2010-06-15
KR100300832B1 (ko) 2002-10-19
US20050239547A1 (en) 2005-10-27
EP0901803A1 (de) 1999-03-17
EP1642624A2 (de) 2006-04-05
US7532211B2 (en) 2009-05-12
ES2260830T3 (es) 2006-11-01
DE69833482D1 (de) 2006-04-20
WO1998035734A1 (fr) 1998-08-20
EP1642624A3 (de) 2007-02-28
EP0901803B1 (de) 2006-02-15

Similar Documents

Publication Publication Date Title
DE69833482T2 (de) Verfahren und vorrichtung zur bildverarbeitung
DE69732211T2 (de) Bildverarbeitungseinheit für spiele
DE69934972T2 (de) Bildgenerierende vorrichtung und bildgenerierendes verfahren
DE69731715T2 (de) Bild-prozessor, bildverarbeitungsverfahren, spielcomputer und aufzeichnungsmedium
DE69629649T2 (de) Bildprozessor, bildverarbeitungsverfahren, diese verwendendes spielgerät und speichermedium
DE69724075T2 (de) Bildverarbeitungsgerät, spielmaschine mit diesem bildverarbeitungsgerät, bildverarbeitungsverfarhen und -medium
DE602005001463T2 (de) Bildverarbeitungsprogramm, spielinformationsverarbeitendes Programm und spielinformationsverarbeitendes Gerät
DE60131797T2 (de) Spielsystem und entsprechendes computerlesbares Aufzeichungsmedium
DE69937414T2 (de) Bildverarbeitungsgerät zur Bestimmung der Flugbewegung eines Objekts
DE60035382T2 (de) Spielvorrichtung, Spieldarstellungskontrollverfahren und computerlesbares Aufzeichungsmedium
US5966132A (en) Three-dimensional image synthesis which represents images differently in multiple three dimensional spaces
DE60037075T2 (de) Verfahrung zum Generieren von Schatten in Videospielen
DE69721630T2 (de) Videospielsystem bei dem Objekte geworfen werden
DE102009041431B4 (de) Fahrsimulationsvorrichtung, Weitwinkelkamera-Videosimulationsvorrichtung und Bilddeformierungs-/-zusammensetzungsvorrichtung
DE69727615T2 (de) Videospielsystem mit Verwendung von Terrainprofilinformation
DE69936332T2 (de) Videospielvorrichtung
DE69737275T2 (de) Videospielsystem mit vertikaler Matrix aus Cursorbildern
KR20050061607A (ko) 게임 화상의 표시 제어 프로그램 및 게임 장치 및 기억매체
US7277571B2 (en) Effective image processing, apparatus and method in virtual three-dimensional space
DE69633659T2 (de) Bildverarbeitungsgerät und damit ausgerüstetes Spielgerät
JPH07178242A (ja) ゲーム機における球技ゲームでの視点変更方法
DE10320112A1 (de) Spielsystem und Spielprogramm
JP2006061717A (ja) ゲーム画像の表示制御プログラム及びゲーム装置並びに記憶媒体
DE60310761T2 (de) Spielvorrichtung, spielsteuerungsverfahren und programm
JP2898578B2 (ja) シミュレーション装置及び画像合成方法

Legal Events

Date Code Title Description
8364 No opposition during term of opposition