DE69532956T2 - Vorrichtung zur erzeugung einer szene aus linienobjekten - Google Patents

Vorrichtung zur erzeugung einer szene aus linienobjekten Download PDF

Info

Publication number
DE69532956T2
DE69532956T2 DE69532956T DE69532956T DE69532956T2 DE 69532956 T2 DE69532956 T2 DE 69532956T2 DE 69532956 T DE69532956 T DE 69532956T DE 69532956 T DE69532956 T DE 69532956T DE 69532956 T2 DE69532956 T2 DE 69532956T2
Authority
DE
Germany
Prior art keywords
camera
time
timer
digital
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69532956T
Other languages
English (en)
Other versions
DE69532956D1 (de
Inventor
J. Douglas DEANGELIS
Mike Ciholas
Kirk Sigel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lynx System Developers Inc
Original Assignee
Lynx System Developers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lynx System Developers Inc filed Critical Lynx System Developers Inc
Application granted granted Critical
Publication of DE69532956D1 publication Critical patent/DE69532956D1/de
Publication of DE69532956T2 publication Critical patent/DE69532956T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
    • H04N7/122Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal involving expansion and subsequent compression of a signal segment, e.g. a frame, a line
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0605Decision makers and devices using detection means facilitating arbitration
    • GPHYSICS
    • G04HOROLOGY
    • G04FTIME-INTERVAL MEASURING
    • G04F13/00Apparatus for measuring unknown time intervals by means not provided for in groups G04F5/00 - G04F10/00
    • G04F13/02Apparatus for measuring unknown time intervals by means not provided for in groups G04F5/00 - G04F10/00 using optical means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C1/22Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people in connection with sports or games
    • G07C1/24Race time-recorders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras

Description

  • Bereich der Erfindung
  • Diese Erfindung bezieht sich ganz allgemein auf Systeme, die Bewegungsereignisse beobachten und abspeichern. Insbesondere bezieht sie sich auf die akkurate Verwaltung und Steuerung von zeitlich aufeinanderfolgenden Bildaufnahmen und Darstellungen, mit Anwendung in zahlreichen Bereichen der Wissenschaft und Technologie. Ganz besonders stellt die Erfindung ein vollständiges Renn-Verwaltungssystem zur Verfügung, welches eine weitreichende Anwendung bei der zeitlichen Messung von Sportereignissen findet.
  • Die Erfindung bezieht sich auch auf Systeme und Methoden zum Erzeugen einer Szene durch Übertragung von sukzessiv gescannten Zeilenobjekten. Als solches umfassen Ausführungsformen dieser Erfindung Vorrichtungen zur Kompression solcher Szenen in verwaltbare Datendateien sowie effiziente farbkodierte Szeneninformationen.
  • Hintergrund der Erfindung
  • Systeme des Stands der Technik, die ein Bewegungsereignis über die Zeit verfolgen und aufnehmen, sind überwiegend auf die Unterstützung von Rennsportereignissen ausgerichtet. Standardfotografietechniken, die die Ziellinie eines Rennens aufnehmen, sind bekannt. Typischerweise betrachten Kameras, die zur hochauflösenden Bildaufnahme ausgerüstet sind, die Ziellinie und erfassen aufeinanderfolgende Bilder mit einer hohen Rate zur späteren Auswertung durch einen Interpreter. Dieser Prozess ist jedoch beschwerlich, verschwenderisch und zeitbeanspruchend, da er z. B. eine Vorrichtung für fotografischen Film und Papier, Prozesschemikalien und Bildvergrößerer oder Projektionsoptiken benötigt. Konsequenter weise verlässt man sich bei den meisten Rennen auf menschliche Urteile und man zieht die „Fotofinish"-Technologie nur in extrem engen Rennen hinzu. Die Specialty Instrument Corporation stellt unzählige solcher Elektronik- und Fotofinish-Systeme unter der Handelsmarke AccutrackTM zur Verfügung. US-Patent Nr. 3,829,869 stellt beispielhaft ein solches AccutrackTM-System dar.
  • Wegen der Probleme mit der „Fotofinish"-Technologie wurden unzählige andere Systeme zur Aufnahme von Rennsportereignissen entwickelt. Jedoch bereiten diese anderen Methoden und Systeme zur Zeitberechnung von Sportereignissen neue Schwierigkeiten. Videosysteme, die Rennen in einem Standard-TV oder Videoformat aufnehmen und darstellen, sind beliebt, aber ungeachtet der besonderen Implementierung dieser Systeme, bleibt ein Teil des elektronischen Bildes auf einem analogen Medium, beispielsweise Videoband. Da analoge Daten aus den Systemen aus einem Kontinuum an Informationen über die Zeit bestehen, ist es relativ schwierig, genau auf ein bestimmtes Zeitintervall zuzugreifen. Es ist sogar noch schwieriger auf einen bestimmten Zeitmoment in der aufgenommenen Sequenz zuzugreifen, da das zugehörige System das Speichermedium suchen muss, das typischerweise eine lange physikalische Ausdehnung in einem aufgespulten Format hat, z. B. eine Videokassette. Dies stellt sowohl Beschränkungen als auch Schwierigkeiten für Anwender dar, die gleichzeitig das aktuelle Rennen aufnehmen, anschauen und frühere Abschnitte des Rennens (oder sogar ein vorhergehendes Rennen) sich nochmals ansehen wollen, da nur ein Anwender auf eine beliebige Information, die zu einer beliebigen Zeit abgespeichert und aufgenommen wurde, Zugriff haben kann.
  • Eine weitere Schwierigkeit bei analogen Daten ist es, dass sie in ein Signal umgewandelt werden müssen, das bei einem Video, TV oder einem Computer benutzt werden kann, bevor diese dargestellt werden. Z. B. wird nach einer abgeschlossenen Suche der ausgewählte Videobandbereich typischerweise zum aktiven Speicher übertragen, bevor er von einem Computer verarbeitet werden kann und ziemlich wahrscheinlicherweise durch zusätzliche komplexe Graphikgeneratoren. Insgesamt kommen die analoge Format- und dazugehörende Ablaufsteuerungen zu der Zeit hinzu, die notwendig ist, um ein Rennen nochmals anzusehen und verlängert darum den Entscheidungsbildungsprozess.
  • Ein anderes Problem dem Renn-Systeme gegenüberstehen, ergibt sich in der Verwaltung von ausgedehnten Zeitereignissen, wie ein Marathon oder ein Fahrradrennen, welches Stunden oder bis jeder Teilnehmer am Ziel ankommt dauern kann. Die Läufer oder Fahrradfahrer überqueren die Ziellinie in Gruppen; und für lange Zeiträume ist die Ziellinie menschenleer. Die relevante Information an der Ziellinie ist darum sporadisch, und enthält umfangreiche Mengen an „toter" Zeit. In analogen Systemen wird diese „tote" Zeit trotzdem aufgenommen und gespeichert, so dass das System Zeitsynchronizität mit dem Ereignis bewahrt, obwohl das aus anderen Gründen ganz generell nutzlos ist und zu der Zeit hinzu kommt, die zur Ablaufsteuerung und Wiederbetrachtung des Rennens erforderlich ist.
  • Verschiedene Rennsysteme haben versucht die Verwaltung und Zugänglichkeit der während eines Rennens aufgenommenen Daten durch Übertragung der aufgenommenen Informationen in ein digitales Äquivalent zu verbessern. Aber diese Systeme kehren auch wieder zu einem analogen Format zurück, bevor das Rennen auf einem Bildschirm dargestellt wird. Als Beispiele zeigt US-Patent Nr. 4,797,751 ein videoaufnehmendes System, das beide, digitale und analoge Bereiche hat, um eine Darstellung auf einer common Cathode Ray Tube (CRT) bereit zu stellen. US-Patent Nr. 5,136,283 beschreibt in ähnlicher Weise ein anderes teilweise digitales System, welches Rennen auf einem Standard-TV-Format darstellt. Diese Analog/Digitalsysteme haben immer noch viele der Probleme innewohnend, die in allen analogen Systemen vorhanden sind.
  • Es ist dementsprechend ein Gegenstand der Erfindung, ein System zur Aufnahme und Darstellung einer zeitsequentiellen Szene von Körpern, die eine Ebene durchqueren, bereit zu stellen. Im besonderen stellt das System Verbesserungen in der Verwaltung und Aufnahme von zeitgesteuerten, sportlichen Ereignissen dar, welche sich auf Körpern oder Teilnehmern beziehen, die eine Ziellinie überqueren, bezogen auf den Start eines externen Ereignisses.
  • Es ist ferner ein anderer Gegenstand der Erfindung Verbesserungen in der Bearbeitung von zeitbezogenen Informationen bereit zu stellen, die Körper darstellen, die eine Ebene im Raum passieren, wie eine Person, die eine Ziellinie in einem Rennen überquert.
  • Noch ein anderer Gegenstand der Erfindung ist es verbesserten Zugang, Steuerung und Abspeicherung einer Szene bereit zu stellen, die eine Sequenz von diskreten Zeitbildern umfasst.
  • Ganz besonders ist es ein Gegenstand der Erfindung ein Rennenaufnehmendes und abspeicherndes System bereit zu stellen, das ein Rennen in einem digitalen Format aufnehmen und darstellen kann.
  • Noch ein anderes Objekt der Erfindung ist es, Farbszenen auf einem Computersystem mit effizienter Farbcodierung zu speichern und darzustellen.
  • Diese und andere Gegenstände werden in der nachfolgenden Beschreibung ersichtlich.
  • Zusammenfassung der Erfindung
  • Die Erfindung wird im Anspruch 1 dargelegt. Bevorzugte Ausführungsformen werden in den abhängigen Ansprüchen dargelegt.
  • Die Erfindung weist, in einem Aspekt, ein System zur Aufnahme und Darstellung einer zeitsequentiellen Szene von Körpern auf, die durch eine Ebene im Raum sich bewegen. Das System enthält zumindest eine Digitalkamera, die Zeilenobjekte betrachtet und in der Ebene des Interesses abbildet. Die Kamera erfasst das Zeilenobjekt zeitsequentiell durch seine Abbildung auf ein Array von Detektorelementen und überträgt das abgetastete Signal in ein digitales Bild, oder Einzelbild, des Zeilenobjekts. Jedes digitale Einzelbild stellt eine einzelne Scheibe der bewe genden Szene zu einem Zeitpunkt dar. Das System enthält ebenso einen Bildzeitgeber, mit einem Zeitprozessor, der auf vorgewählte digitale Werte aus der Kamera antwortet und jedes Einzelbild mit einem digitalen Zeitbezug kennzeichnet, wobei eine vorgewählte Anzahl an Bytes innerhalb der Einzelbildinformationen genutzt werden. Der Bildzeitgeber kann ebenso das digitale Einzelbild von der Kamera in einen internen Puffer abspeichern.
  • Das System, das derart zusammengefasst ist, ist besonders nützlich bei der Aufnahme und Verwaltung der offiziellen Zeiten von Objekten oder Teilnehmern, die eine Ziellinie überqueren und bei einer Rate, die über 50 Mal schneller (und genauer) als ein entsprechendes Videorennenverwaltungssystem ist. Ein Anwender kann die Körper, die die Ebene des Interesses überqueren, d. h. die Ziellinie, mit hoher Genauigkeit aufnehmen und darstellen, während die Möglichkeit zum Wiederbetrachten und Bearbeiten in Echtzeit der gespeicherten Bilder erhalten bleibt. Entsprechend ist es nützlich, dass die Zeitbezüge, die mit jedem Einzelbild verbunden sind, mit einem Startsensor getriggert werden und mit dem Start eines externen Ereignisses korrelieren, z. B. einem Startsignal durch eine Pistole. Die Erfindung stellt darum in einem anderen Aspekt einen Zeittakt zur Verfügung, der mit dem Start eines Ereignisses synchronisiert ist und welcher dem Zeitprozessor eine genaue Referenz zur Verfügung stellt, um die entsprechenden Zeitmomente für jedes Einzelbild zu kennzeichnen.
  • In anderen Aspekten kann die digitale Kamera eine zeilenscannende Charge Coupled Device enthalten, die das Array der Detektorelemente darstellt.
  • Die Digitalkamera und der Bildzeitgeber haben jeweils zugeordnete Ablaufsteuerungs-CPUs, welche selektiv Daten vor der Übertragung entlang einer Signalleitung komprimieren können. Z. B. kann die Digitalkamera die Bandbreitenanforderungen der Signalleitung oder der Verkabelung zwischen ihr oder dem Bildzeitgeber durch Anweisung einer ersten Kompression der digitalen Daten, die von der Kamera übertragen werden, reduzieren. Der Bildzeitgeber kann die Bandbreitenanforderungen der Verkabelung oder der Signalleitung zwischen ihr und dem Hauptsteuercomputer durch Anweisung einer zweiten Kompression der Daten, die zwischen den beiden übertragen werden, unter Anwendung eines ähnliches Kompressionsschema, reduzieren.
  • In einem bevorzugten Aspekt wird eine einzelne Verkabelung zwischen dem Bildzeitgeber und der Kamera genutzt. Dieses Kabel hat vorzugsweise die Form eines einzelnen Koaxialkabels, das als eine Signalleitung funktioniert, um verschiedene Funktionen an der Kamera anzuweisen, eine Datentransferleitung, um digitale Informationen zu dem Bildzeitgeber zu übermitteln und eine Versorgungsleitung, um die Kamera mit Energie zu versorgen. Ähnlich kann die Verkabelung zwischen dem Bildzeitgeber und dem Hauptsteuercomputer oder irgendeinem zusätzlichen Computer eine ähnliche Leistungsfähigkeit haben.
  • Diese und andere Aspekte werden in der folgenden Beschreibung ersichtlich, in der die Erfindung in Verbindung mit speziellen bevorzugten Ausführungsformen beschrieben und veranschaulicht wird; jedoch sollte es klar sein, dass verschiedene Hinzufügungen, Weglassungen und Modifikationen von Fachleuten vorgenommen werden können, ohne dabei den Bereich der Erfindung zu verlassen.
  • Kurze Beschreibung der Figuren
  • Ein umfassenderes Verständnis der Erfindung kann durch Bezugnahme auf die Figuren erhalten werden, bei denen:
  • 1 schematisch ein System veranschaulicht, das entsprechend der Erfindung zur Aufnahme und Darstellung einer zeitsequentiellen Szene von Körpern, die eine Ebene durchqueren, aufgebaut ist.
  • 1A veranschaulicht adaptive Signalverarbeitung in einer bevorzugten Kamera, die in dem System der 1 genutzt wird.
  • 2 veranschaulicht wie ein System, das entsprechend der Erfindung aufgebaut ist, sequentiell eine Szene aus diskret abgetasteten Zeilenobjekten aufbaut.
  • 3 veranschaulicht eine Sammlung von digitalen Einzelbildern, die einen Informationsblock bilden, wobei jedes Einzelbild mit einem dazugehörenden Zeitbezug gekennzeichnet ist.
  • 3A veranschaulicht eine Ausführungsform, in welcher besondere Einzelbilder aus einer Sequeuz von Einzelbildern abgeschnitten werden.
  • 4 veranschaulicht eine bevorzugte Anwendung der Erfindung, in welcher ein System, das gemäß der Erfindung aufgebaut ist, als ein Rennenverwaltungssystem arbeitet, welches ein Rennen betrachtet und aufnimmt.
  • 5 veranschaulicht eine typische Darstellung einer Rennszene, die von einem System erzeugt wird, das entsprechend der Erfindung aufgebaut ist.
  • 6 veranschaulicht ein System, das ein virtuelles Speichersubsystem aufweist.
  • 7 zeigt eine Sequenz von Daten entsprechend einem veranschaulichendem ersten Schritt in einer Kompression der Sequenz von digitalen Einzelbildern, wie sie von einer Ausführungsform der Erfindung bereit gestellt werden.
  • 7A zeigt einen zweiten veranschaulichenden Schritt in der Kompression der Datensequenz, die in 7 gezeigt wird.
  • 7B zeigt einen dritten veranschaulichenden Schritt in der Kompression der Datensequenz, die in 7A gezeigt wird.
  • 8 zeigt schematisch ein erstes Kompressionssystem, das entsprechend einer Ausführungsform der Erfindung aufgebaut ist.
  • 8A zeigt schematisch ein zweites Kompressionssystem, das entsprechend einer Ausführungsform der Erfindung aufgebaut ist.
  • 8B zeigt repräsentative Datenpixel, die entsprechend der Erfindung und innerhalb aufeinanderfolgender Einzelbilder einer Schwarz- und Weißkamera erzeugt wurden.
  • 8C zeigt repräsentative Datenpixel, die entsprechend der Erfindung und innerhalb aufeinanderfolgender Einzelbilder einer Farbkamera, erzeugt wurden.
  • 8D8G zeigen sukzessive und veranschaulichende Kompressionsoperationen entsprechend weiterer Merkmale einer Ausführungsform der Erfindung.
  • 9 veranschaulicht ein virtuelles Speichersubsystem, verschiedene Kameras und verschiedene Puffer innerhalb eines Bildzeitgebers.
  • 9A, 9B und 9C veranschaulichen ein anderes mehrfaches Kamerasystem mit abstimmbaren Zeitgebern in den Kameras, um Einzelbilder zu kennzeichnen.
  • 10 veranschaulicht eine Bildschirmszene, die zwei Szenensequenzen darstellt, die von zwei verschiedenen Kameras erzeugt wurden.
  • 11 und 11A veranschaulicht eine adaptive Farbpalettisierung in einer bevorzugten Ausführungsform des Systems.
  • Detaillierte Beschreibung der Erfindung
  • 1 veranschaulicht ein System 10 zur Aufnahme und Darstellung einer Sequenz von Körpern, die eine Ebene im Raum durchqueren. Das System enthält eine Digitalkamera 12, einen Bildzeitgeber 14 und einen Hauptsteuercomputer 16. Mit internen Optiken 15 betrachtet und bildet die Kamera 12 das Zeilenobjekt 18 auf einem Array von Detektorelementen 20 ab, vorzugsweise einer Line Scan Charge Coupled Device (LS-CCD). Ein Kameraprozessor 22 tastet das Bild an den De tektorelementen 20 zeitsequentiell ab und verstärkt und digitalisiert das Ausgangssignal am Verstärkungscontroller 24, beziehungsweise am A/D-Konverter 26. Jedes abgetastete Bild stellt ein Einzelbild von digitalen Informationen zu einem einzelnen Zeitpunkt dar.
  • Jedes digitale Einzelbild wird entlang einer Signalleitung 28, vorzugsweise einem Koaxialkabel, zum Pufferspeicher 30 des Bildzeitgebers 14 übertragen. Der Zeitprozessor 32 kennzeichnet jedes Einzelbild, wenn es beim Bildzeitgeber 14 eingeht, mit einem Zeitbezug, der vorzugsweise durch den Zeittakt 34 erzeugt wird, durch Abspeichern des Zeitbezugs innerhalb der digitalen Information des Einzelbildes. So dass jedes digitale Einzelbild, das in dem Puffer abgespeichert ist, beides enthält, die abgespeicherte digitale Darstellung des Zeilenobjekts 18 und eine einzelne damit verbundene Zeit. Der Zeitbezug für jedes Einzelbild zeigt die Zeit an, in der die Kamera 12 das Bild aufgenommen hat in Bezug auf den Start des externen Ereignisses.
  • Der Puffer 30 speichert die Einzelbilder, die von der Kamera 12 erzeugt wurden bis sie zu einer vorgewählten Speicherzuweisung angewachsen sind, welches ein „Block" genannt wird, danach überträgt der Hauptsteuercomputer 16 den Block über eine Signalleitung 38 auf seinen eigenen internen Speicher 36.
  • Der Hauptsteuercomputer 16 hat einen zentralen Prozessor 40, der die Informationsblöcke, die innerhalb des internen Speichers 36 abgespeichert sind, verarbeitet, damit die Szenen- und Zeitinhalte einer Szene von digitalen Einzelbildern auf einem Anzeige-Monitor 42 dargestellt werden. Ebenso steuert der zentrale Prozessor 40 die automatische Operation- und Speicherverwaltung des Systems 10, und antwortet auf Eingaben am Keyboard 44 und Maus 45, so dass ein Anwender selektiv die Anzeige jeder beliebigen Szene anweisen kann, die von dem System 10 erfasst wurde, einschließlich einer Echtzeitdarstellung oder früher aufgenommener Segmente. Insbesondere kann ein Anwender auf die einzelnen Zeiten, die mit irgendeinem Abschnitt der Szene verbunden sind, zugreifen.
  • In einer bevorzugten Ausführungsform werden Befehle an die Digitalkamera 12 von dem Zeitgeber 14 und dem Hauptsteuercomputer 16 innerhalb der Signalleitung 28, welche ein einzelnes Koaxialkabel ist, übermittelt. Das Koaxialkabel 28 wirkt zusätzlich als eine Energiesteuerleitung, um die Kamera 12 mit Energie zu versorgen, so dass die Kamera 12 ohne eine Remoteenergieversorgung arbeiten kann.
  • Mit weiterem Bezug und Beschreibung der 1 wird ein dreidimensionales Orientierungsdiagramm 50 bereitgestellt, um ein besseres Verständnis der Operation der Erfindung zu ermöglichen. Das System 10 arbeitet durch die sequentielle Aufnahme des Bildes des Zeilenobjekts 18, wie von der Kamera 12 zu diskreten Zeitpunkten gesehen. Das Zeilenobjekt 18 ist typischerweise nur ein Teil einer „Szene", wie sie von einer Person am Anzeige-Monitor 42 beobachtet wird. So dass jedes Zeilenobjekt 18, das von der Kamera 12 sequentiell aufgenommen wird, einen Teil eines größeren Bildes oder „Szene" der Körper, die durch den Bereich des Bildes (FOV) der Kamera 12 sich bewegen, bildet. Diese FOV ist im wesentlichen eine Ebene im Raum, darstellbar durch die Achsen 52 und 54 des Diagramms 50, da das Detektorarray 20 und sein entsprechendes Zeilenobjekt 18 praktisch eindimensional sind: das Zeilenobjekt 18 hat seine lange Dimension entlang der Achse 52 des Diagramms 50 und seine kurze Dimension (nicht gezeigt) entlang der Achse 56 senkrecht zur Seite der 1. Die Kamera 12 fokussiert auf das Zeilenobjekt 18 mit einem Abstand, der entlang der Achse 56 von der Kamera zum Objekt 18 gesteuert wird.
  • So dass z. B. 2 ein Objekt 60 veranschaulicht, welches in Bewegung entlang der Achse 56 des Diagramms 50' ist, eine 90°-Rotation des Diagramms 50. Die Kamera (nicht gezeigt) wird auf das Objekt 60 mit einer FOV vorwiegend in der Ebene der Achsen 52 und 54 fokussiert. So wie jedes Einzelbild aufgenommen wird, wird ein Abschnitt des Objekts 60, d. h. ein Zeilenobjekt, einzeln und räumlich als ein digitales Einzelbild repräsentiert. In 2 werden die sukzessiven Zeilenobjekte, die durch das System aufgenommen wurden, veranschaulichend am Objekt 60 als aufeinanderfolgende Rechtecke 62 gezeigt. Für jedes der Zeilenob jekte 62 erzeugt die Digitalkamera 12 entsprechend ein Einzelbild durch Abtastung des Bildes des Zeilenobjekts entsprechend der Anzahl der Detektorelemente innerhalb des Array 20. So dass jedes der Zeilenobjekte 62 digital entlang seiner Länge (d. h. entlang der Achse 52) in ein digitales Einzelbild entsprechend der Abtastung an dem Detektorarray 20 segmentiert wird und zu einem Zeitpunkt an den Bildzeitgeber 14 übermittelt wird. In einem Echtzeitaspekt stellt das Zeilenobjekt 64 das zuletzt aufgenommene Einzelbild dar und der Rest des Objekts 60 auf der linken des Zeilenobjekts 64 muss noch durch das System aufgenommen werden. Eine Szene oder ein zusammengesetztes Bild eines Objekts, dargestellt auf dem Computer 16, kann sehr ähnlich wie das tatsächliche Objekt, das durch das FOV der Kamera 12 vorbeiläuft, aussehen.
  • Wie zuvor erwähnt, wird jedes digitale Einzelbild, das von dem System 10 der 1 aufgenommen wird, mit einem besonderen Zeitbezug von der Kamera gekennzeichnet und in Informationsblöcken im Computer 16 gespeichert. Die Kamera sendet einen speziellen digitalen Wert an den Zeitgeber, welcher der Zeitgeber als ein Start/Ende des Einzelbilds erkennt. Der Zeitgeber kennzeichnet dann das erhaltene Einzelbild mit dem dazugehörenden Zeitbezug.
  • 3 veranschaulicht diese Operationen umfassender. Jedes digitale Einzelbild 70, das von dem System 10 aufgenommen wurde, enthält ein Array an digitalen Bytes entsprechend dem Signal, das durch die aktivierten Elemente des Arrays 20 detektiert wurden. Wenn ein Einzelbild den Bildzeitgeber 14 erreicht, speichert der Zeitgeberprozessor die Zeit, die zu diesem Einzelbild gehört in die letzten vier Bytes 72, dadurch wird jedes Einzelbild mit einer einzelnen Zeit verbunden. In 3, wird mit dem Pfeil 74 die anwachsende Zeit dargestellt; so dass Einzelbilder in Richtung der Linken der 3 zeitlich später als solche auf der Rechten sind.
  • 3 veranschaulicht außerdem die Ansammlung der Einzelbilder, die einen Informationsblock 76 bilden, die von dem Hauptsteuercomputer 16 genutzt werden. Entsprechend einer bevorzugten Ausführungsform werden die Einzelbilder in Informationsblöcken organisiert, die eine Größe von 16 k-Bytes haben. Die An zahl der Einzelbilder, die den Block 76 ausmachen, hängt von der Menge an Informationen innerhalb jedes Einzelbilds ab – welche eine Variable abhängig von den weiteren Merkmalen der Erfindung, die unten diskutiert werden, ist.
  • 3A veranschaulicht ein besonderes Merkmal, welches durch den einzelnen Zeitbezug ermöglicht wird, der mit jedem Einzelbild der 3 verbunden ist. Im besonderen, entsprechend der bevorzugten Ausführungsform, kann ein Anwender am Anzeige-Monitor 42 der 1 ausgewählte Einzelbilder 73 aus der Szene dargestellt auswählen und abschneiden, ohne Unterbrechung irgendeiner der Informationen die in irgendeinem anderen Einzelbild verfügbar sind. Ein abgeschnittener Abschnitt 73 kann innerhalb eines Blocks 76 sein, wie in 3A veranschaulicht, oder einem Abschnitt davon (nicht gezeigt). Die Adresse der abgeschnittenen Einzelbilder werden anfänglich an einen Listenspeicher (ein Speicher, der mit Listentabellen verbunden ist) gesendet, der ihre Adressen aufbewahrt bis sie entweder permanent gelöscht wurden (welches durch einen „Sicherungs"-Befehl erfolgen kann) oder innerhalb der abgeschnittenen Sequenz wieder eingesetzt wird. Dies ist besonders nützlich in einer Szene oder einem Rennen, welches uninteressante Segmente hat, die einfach wertvollen Speicher verschwenden. Dies hilft ebenso in der Interpretation einer dargestellten Szene, weil sowohl die insgesamte Länge der Szene, wie von dem Monitor gesehen, reduziert wird als auch der Tiefenaspekt der dargestellten Szene verbessert wird. Falls z. B. ein erster Läufer mehrere Sekunden vor einem zweiten Läufer war, kann die aufgenommene Sequenz zwischen den Läufern abgeschnitten werden und die Darstellung auf dem Bildschirm erscheint wie wenn kein erheblicher Zeitunterschied zwischen den Läufern existieren würde. Natürlich bleibt die zeitliche Beziehung der Läufer genau erhalten und wenn ein Anwender auf die Zeiten, die mit den Läufern verbunden sind, zugreift, wird die zeitliche Diskontinuität zwischen den beiden ersichtlich werden.
  • Wie zuvor diskutiert, ist die offensichtlichste Anwendung für ein System, das entsprechend der Erfindung erstellt wird, auf Rennenverwaltung gerichtet. 4 veranschaulicht ein System 10 in einer Konfiguration, die geeignet ist, die Bewegung von Körpern, die durch die Ziellinie eines Rennens überqueren, aufzunehmen.
  • Das System 10 wird veranschaulichend nahe der Rennbahn 80 mit der Digitalkamera 12 gezeigt, die angeordnet ist, um die Ebene zu erkennen, welche repräsentativ für die Ziellinie ist. Der Bildzeitgeber 14 erhält digitale Einzelbilder von der Kamera 12 mit einer Einzelbildrate, die innerhalb des Systems 10 wählbar ist und die jedes Einzelbild mit seinem dazugehörenden Zeitbezug kennzeichnet. Der Hauptsteuercomputer 16 erlangt und speichert die Einzelbilder von dem Bildzeitgeber 14 als Informationsblöcke und stellt die aufgenommenen Szenen auf dem Anzeige-Monitor 42 dar. Der Computer 16 ermöglicht es ebenso einem Anwender, in der veranschaulichten Ausführungsform, bestimmte Merkmale, die unten durch das Keyboard 44 und eine Computermaus 45 beschrieben werden, zu steuern.
  • Ebenso ist in 4 ein Startsensor 84 gezeigt, welcher auf den Start eines externen Ereignisses antwortet, z. B. die Startpistole, welche anzeigt, dass das Rennen begonnen hat und welche diese Zeit dem Bildzeitgeber 14 anzeigt. Der Zeittakt 34 der 1 wird mit diesem Startsignal kalibriert und der Zeitprozessor 32 kennzeichnet jedes der Einzelbilder, die beim Zeitgeber 14 eingehen, mit einem Zeitbezug, der relativ zu der detektierten Startzeit ist.
  • Ein Drucker 86 kann mit dem System 10 installiert werden, um ausgewählte Szenen und Informationen über das Ereignis auszudrucken.
  • 5 veranschaulicht eine Szene, die von dem System 10 erzeugt wird, von einem Rennen, das vier Teilnehmer hat, wobei eine typische Darstellung exemplarisch dargestellt wird, die auf dem Monitor 42 (1 und 4) und Drucker 86 (4) verfügbar sind. In 5 ist der Pfeil 90 in der Zeitdimension und zeigt zu ansteigenden Zeiten; während der Pfeil 92 sich auf die räumliche Dimension bezieht entsprechend der räumlichen Information innerhalb der digitalen Einzelbilder. Dieses Bild kann auf dem Monitor 42 (detaillierter unten diskutiert) von einem Anwender, der am Computer 16 arbeitet, größer oder kleiner gezoomt werden. In der bevorzugten Ausführungsform kann ein Anwender des Systems 10 die Auflösung oder Bildqualität einer Szene, die von dem System 10 erzeugt wurde, durch Anpassung irgendeiner von drei separaten Parameter, auswählen. Zuerst durch An passen der Einzelbildrate, d. h. der Rate mit der die Kamera jedes Zeilenobjekt in der Szene aufnimmt, ändert sich die Menge der Auflösungsinformationen, die entlang der Achse 90 verfügbar sind. Zweitens durch Anpassen der Kameradichte, d. h. durch selektives Aktivieren oder Deaktivieren spezieller Elemente entlang des Detektorarrays 20, ändern sich die Auflösungsinformationen, die entlang der Achse 92 verfügbar sind. Drittens durch größer und kleiner zoomen auf dem Anzeige-Monitor ändert sich die Menge der dargestellten Auflösungen in einer oder in beiden Achsen 90 und 92. Im allgemeinen wird die beste Anzeigedetaillierung oder Auflösung erreicht, wenn der Anwender jedes Einzelbild, das durch das System 10 mit einer hohen Einzelbildrate aufgenommen wurde, darstellt und jeder Pixel auf dem Detektorarray 20 aktiviert ist.
  • Jedoch müssten andere Betrachtungen erstellt werden, wenn diese drei Parameter angepasst werden. Zuerst kann es intuitiv nahe liegen, dass die höchste Einzelbildrate, die durch das System verfügbar ist, unter allen Umständen vorzuziehen ist. Aber falls die Einzelbildrate zu schnell ist, können die Objekte auf dem Monitor 42 „fett" erscheinen trotz größer zoomens. Z. B. wenn das Rennen aus Läufern besteht, die mit ungefähr 20 mph laufen, lässt ungefähr 500 Einzelbilder pro Sekunde die Teilnehmer auf dem Display 42 ohne Zoomen normal erscheinen. Falls die Teilnehmer stattdessen Schildkröten wären, wäre eine viel langsamere Einzelbildrate vorzuziehen (falls sie langsamer als 1/100 sind, wäre z. B. eine Einzelbildrate von 5 Hz. ideal). Ein anderer Faktor, der durch die Einzelbildrate beeinflusst wird, ist die Energie, die für die Detektoren innerhalb der Kamera verfügbar ist. Falls die Einzelbildrate zu schnell ist, könnte das Bild trübe erscheinen, weil die Detektoren nicht genügend Zeit hatten, um die verfügbare Lichtenergie von dem Zeilenobjekt zu integrieren. Das hängt natürlich von der Sensitivität der Detektoren und dem Spektrum, das von der Kamera genutzt wird, ab. In der bevorzugten Ausführungsform antwortet das Detektorarray 20 der 1 auf sichtbare Lichtenergie und erfordert darum mehr Zeit, um ein spezielles Bild bei Abenddämmerung oder Dämmerstunden aufzunehmen. Falls andererseits das Array 20 konstruiert wurde, um auf Infrarotenergie zu reagieren, z. B, mit HgCdTe-Material, würde die Einzel- Bildrate entsprechend der Temperatur und Geschwindigkeit der Objekte angepasst werden.
  • Es wird darum ein automatischer Verstärkungssteuermechanismus (AGC) bereitgestellt, um für verschiedene Niveaus an Lichtenergie aus der Szene des Interesses aktiv zu kompensieren. Der Kameraprozessor 22 und Verstärkungscontroller 24 der 1 passen die Verstärkung, die auf die digitalen Einzelbilder, die von der Kamera zu dem Bildzeitgeber in Echtzeit übertragen werden, programmmäßig an. Der Kameraprozessor 22 antwortet auf einen Befehl von dem Hauptsteuercomputer, um die Verstärkung zu erhöhen oder zu senken in Verbindung mit dem Verstärkungscontroller 24 durch Quantifizieren der digitalen Werte innerhalb der digitalen Einzelbilder, die von dem A/D-Konverter 26 ausgegeben werden und modifiziert die Sensitivität der Kamera.
  • Z. B. falls der durchschnittliche digitale Wert in einer Serie von Einzelbildern zu gering ist, würde die Szene am Computer trübe erscheinen. Ein Befehl durch den Anwender am Hauptsteuercomputer, um die Verstärkung entsprechend zu erhöhen, verbessert den dargestellten Bildschirmkontrast. Ein Anwender kann ebenso wählen wie schnell die AGC-Steuerung der Kamera arbeitet durch Anpassen der Bandbreite der Verstärkungssteuerung. Ein Anwender ändert effektiv die AGC-Bandbreite durch Auswahl des Zeitumfangs, den eine Kamera 12 hat, um den durchschnittlichen digitalen Wert beim Setzen der aktiven Verstärkung, zu quantifizieren. Obwohl für die Mehrheit der Bewegungsereignisse nicht allgemein anwendbar, wie Rennen, könnte die Verstärkung theoretisch für jedes Einzelbild, das von der Kamera erzeugt wurde, durch Erhöhen der AGC-Bandbreite auf eine maximale Einstellung variiert werden.
  • Die Kamera 12 verwendet eine neuartige Signalaufbereitungsschaltung 24a, 24 (1A), um die Pixeldaten, die von dem Zeilensensor 20 erzeugt werden, zu verbessern. Wie dargestellt, wird der Sensorausgang 20 durch den Verstärkungscontroller 24 verstärkt, welcher allgemein eine von einer Anzahl von möglichen Verstärkungslevels Li, die auf den Kamerabediener- oder Systembedienerbefehlen beruhen, wie oben diskutiert und/oder programmierter Mikroprozessorsteuerung, die auf den aktuellen Lichtbedingungen, Szene-Lichtniveaus und ähnlichem basieren oder eine Kombination von Programmsteuerung und Anwenderauswahl, auswählt. Die Verstärkungssteuerung 24 wendet einen Eingangsvorverstärker 24i , welcher den Sensorausgangslevel jedes Pixel mit einer Offsetspannung vergleicht, an. Im Stand der Technik ist das im allgemeinen eine konstante Schwellenspannung, die werksseitig basierend auf den Sensorcharakteristika festgelegt wird. Jedoch erhält ein Vorverstärker 24i eher eine Offsetspannungeingabe als eine voreingestellte Schwelle von der Schaltung (generell mit 24a bezeichnet), die eine variable Funktion des Rausch- oder Dunkelstromausgangs von dem CCD-Sensorarray, ist. Die Offsetspannung wird von dem Videoausgang des Sensors durch den Vorverstärker abgezogen. Das Videosignal wird dann durch eine oder verschiedene auswählbare Verstärkungsschaltungen wie zuvor verstärkt und der analog-nach-digital Konverter 26 konvertiert das verstärkte Videosignal in einen 8 bit Wert.
  • Wie in 1A gezeigt, hat der CCD-Sensor 20 eine Zeile von aufnehmenden Pixel und ebenso eine oder verschiedene „dunkle Pixel". Dies sind Regionen des Arrays, deren ladungsansammelnde und verstärkende oder verknüpfende Strukturen identisch denen der aktiven lichtempfindlichen Pixel aufgebaut sind, die aber bedeckt sind, so dass kein Licht sie erreicht. Ihr Ausgang repräsentiert daher das Hintergrund-Rauschniveau entsprechend z. B. der durchdringenden oder nicht sichtbaren Strahlung, Hitze, Schroteffekt und ähnlichem und kann darum dazu genutzt werden, um die Komponente des Rauschens darzustellen, welche im Ausgangssignal jedes der aktiven Sensorpixel erscheint.
  • Ein CCD-Zeitmodul 24j stellt die Taktsignale zum Senden der Sensorladungsdaten zum Eingangsvorverstärker 24i und ebenso ein schwarzes Pixelflag auf Zeile 24i zu einer Entscheidungsschaltung 24k bereit, während der Zeit in der der Ausgang von den schwarzen Pixel des Sensors 20 in dem Datenstrom erscheinen. Entscheidungschaltung 24k erhält den Strom der 8-bit Digitalpixelwerte und hält die geflaggten schwarzen Pixeldaten, welche es mit einem gewünschten schwarzen Niveau vergleicht. Entscheidungsmodul 24k sendet dann an einen Spannungsin tegrator 24m , ein Oben- oder Unten-Signal, der analoge Ausgang desselben stellt die Offsetspannung dem Vorverstärker 24i zur Verfügung. Der Spannungsintegrator speichert einen Spannungswert, der in kleinen Schritten nach oben oder unten durch die Oben- und Unten-Signale, angepasst werden kann. Sobald die Offsetspannung bewirkt, dass der schwarze Pixelwert das gewünschte Niveau erreicht, wird der Spannungsintegrator die Offsetspannung konstant halten, falls kein Oben- oder Unten-Signal von dem Entscheidungsmodul 24k erhalten wird. Das Dunkelstrom-Offsetmodul 24a dient daher als ein Closed-Loop-Feedback von der Rauschkomponente des Ausgangspixeldatenstroms des A/D-Konverters 26 zu der Verstärkersteuerung 24 und operiert, um die Rauschverteilung vor der hohen Verstärkungsvideosignal-Verstärkung der Verstärkungssteuerung 24, auszulöschen. Dies führt zu verbesserter Bildqualität über einen viel größeren Temperaturbereich und sichert, dass das Vorverstärkerschwellenniveau trotz Drift oder Komponentenalterung effektiv bleibt. Namentlich das Entscheidungsmodul 24k arbeitet auf dem digitalisierten verstärkten Dunkelstrompixelwert und stellt darum eine hochgenaue Korrektur für die aktuellen Arbeitsbedingungen dar.
  • Die Schaltung arbeitet mit allen Einzelbildern, sogar während der Videoaufnahme. Wenn die Verstärkung, die ausgesucht wurde, verändert wird, dann kann die erforderliche Offsetspannung sich ebenso ändern. Die Schaltung wird auf dies reagieren und die Offsetspannung über die nächsten Einzelbilder korrigieren.
  • Wie ebenso in 1a gezeigt, erhält bei Hinzufügung zu dem verstärkten Videosignal mit einem Verstärkungsniveau Li ... oder Ln auf Leitung 26a, der A/D-Konverter 26 ebenso ein feines Steuerungsanpassungssignal auf Leitung 26b vom D/A-Konverter 24n. Dies ist eine analoge Spannung, die von einem 8-bit Kontrollwort konvertiert wurde, welches den Bereich des A/D-Konverters 26 festlegt, der zum Digitalisieren des verstärkten Video, genutzt wird. Falls der Wert des 8 bit Steuerworts, das dem D/A-Konverter 24n bereitgestellt wird, durch Absenken der Spannung auf Leitung 26b reduziert wird, nutzt der A/D-Konverter einen engen Bereich. So dass die kleineren Eingänge der Leitung 26b größere Abschnitte des Bereichs darstellen und die Bildwerte größer sind. Auf diesem Weg erhöht das Absenken der D/A-Spannung auf der Leitung 26b die offensichtliche Verstärkung.
  • In einer Prototypenausführungsform, sind die groben Verstärkungsbereiche bezogen durch einen Faktor von 3, mit relativen Verstärkungen von .5, 1.5, 4.5 und 13.5 und das Schalten zwischen Verstärkungsniveaus wird mit entsprechenden Änderungen in dem Steuerwort auf der Leitung 26a koordiniert, um Änderungen in der Größe zu vermeiden. Beim Schalten von einer Verstärkung Li zu einer anderen Li+1, wird eine entsprechende Änderung durch einen Faktor von drei in dem D/A-Signal auf der Leitung 26b zu einem nahezu identischen Bild resultieren. Z. B. entspricht eine grobe Verstärkung von 1,5 und eine feine Verstärkung von 85 (d. h. 255/3) einer groben Verstärkung von 4,5 und einer feinen Verstärkung von 255. So dass Änderungen in der feinen Verstärkung mit der Operation des Verstärkungsselektors koordiniert werden, um Übergänge zwischen den groben Verstärkungslevels L1, L2 ... zu mildern. So dass, falls das Modul bestimmt, dass die Lichtniveaus oder Bedienungsbefehle einen Sprung in dem Verstärkungsniveau erfordern, das feine Steuerwort reduziert (falls die Verstärkung zunimmt) oder verstärkt wird (falls fallend), so dass wenn das Verstärkungsniveau angeschaltet wird, der Übergang abgemildert erscheint.
  • Wie zuvor erwähnt, wird die Auflösung in der räumlichen Dimension 92 der 5 durch das Ändern der Kameradichte modifiziert, welche selektiv bestimmte Detektorelemente auf dem Detektorarray 20 aktiviert. So dass durch Reduktion der Kameradichte durch einen zweifachen oder vierfachen Faktor die resultierende räumliche Auflösung ähnlich reduziert wird durch einhalb bzw. einviertel. So wie mehr Detektoren durch die Reduktion der Kameradichte deaktiviert werden, sinkt die Anzahl der Details, die entlang der Achse 92 von 5 aufgenommen werden. Dies kann ein wünschenswertes Merkmal sein, falls hohe Detailgenauigkeit für eine besondere Szene nicht gewünscht ist, da es signifikant die Menge an Information reduziert, die von dem System 10 gespeichert werden.
  • Noch spezieller ist die Kameradichte auf eine programmierbare Art durch einen Anwender am Computer 16 der 1, welcher ein Signal an den Kameraprozessor 22 übersendet, anpassbar. Der Prozessor 22 wählt darauf nur die passenden Daten aus, die dem Bildzeitgeber 14 zu senden sind, entsprechend der angewiesenen Kameradichte, die die besonderen Detektorelemente innerhalb des Array 20 aktiviert.
  • Bezüglich der dargestellten Auflösung, passt ein Anwender die dargestellte Bildqualität durch Zoomoperationen nahezu vollständig an. Da jedes Einzelbild, das durch das System gespeichert wird, einen einzigartigen Zeitbezug enthält, wird der Prozess des Zoomens leicht durch Überspringen oder Duplizieren von Einzelbildern in der Szene ohne die kritischen Zeitbeziehungen innerlalb der Szene zu beeinträchtigen, erreicht. Die Maus 45 der 1 und 4 erlaubt dem Anwender auf besondere Objekte auf der Szene zu zeigen und entweder größer oder kleiner, durch Anklicken der Maus, zu zoomen, um dadurch mehr bzw. weniger Details des Bildes erkennen zu können. Es ist besonders nützlich, wenn es in Verbindung mit der Zeitabschneidesteuerung benutzt wird, die vorher diskutiert wurde, wobei ein Anwender herauszoomen kann und verschiedene Sequenzen der „toten" Zeit innerhalb eines langen Rennens abschneiden kann, um die gespeicherte Dateilänge zu kürzen. Die Zoomoperation ist entlang beider Richtungen der dargestellten Szene verfügbar; so dass ein Zoom innerhalb der räumlichen und zeitlichen Dimensionen entweder gleichzeitig oder unabhängig davon erstellt werden kann. Verschiedene Zooms werden auf dem Display gesammelt entsprechend dem gewählten Fokus des Interesses. Jedoch wird die Information die während der Zoomoperationen verfügbar ist, eingeschränkt auf die Informationsmenge, die entsprechend der Einzelbildrate und der Dichteeinstellungen der digitalen Kamera, erfasst wird; es werden keine neuen Informationen erzeugt. Falls die Anzeigenauflösung die verfügbare erfasste Auflösung überschreitet, kann das dargestellte Bild durch ein entsprechendes Interpolationsschema geglättet werden.
  • Die Menge an Informationen, die durch das System 10 erfasst wird, ist selbst eine wichtige Quantität. Das LS-CCD Detektorelementearray 20 der 1 ist vorzugsweise 1024 Elemente lang, was kommerziell erhältlich ist. Falls einmal das Detektorarray abgetastet und digitalisiert wird, hat jedes Detektorelement, das aktiviert ist, 8-Bits oder ein „Byte" an Informationen, die mit dem speziellen Einzelbild verbunden ist. In dieser Konfiguration hat jedes Einzelbild bei der höchsten Kameradichte 1024 Bytes an Informationen. In einer bevorzugten Ausführungsform enthält ein Informationsblock 16 k-Bytes an Speicherplatz und darum bilden 16 Einzelbilder einen Informationsblock, falls jeder Detektor auf dem LS-CCD-Array aktiviert ist.
  • Jedoch, falls ein Anwender die Kameradichte durch Aktivieren jedes anderen Pixel entlang des Array 20 erniedrigt, wird die Datenmenge innerhalb eines Einzelbilds durch einhalb reduziert, d. h. auf 512 Bytes und die Anzahl der Einzelbilder innerhalb eines Informationsblocks erhöht sich auf 32. Dies ist ein wichtiges Merkmal, da viele Computer durch Prozessgeschwindigkeit und Speicher beschränkt sind. Falls ein langes Ereignis permanent aufgenommen wird, wird an einem besonderen Punkt die Menge des Speichers überschritten. Ein virtuelles Speichersubsystem oder Harddisklaufwerk, wie unten beschrieben, fügt zu der für das System verfügbaren Speichermenge viel bei. Trotzdem kann durch das Reduzieren der Kameradichte und der Einzelbildrate als auch dem vernünftigen Abschneiden und der Datenkompression wie unten beschrieben, die Menge der digitalen Informationen, die jedes Einzelbild repräsentieren und die Rate zu welcher Daten zwischen der Kamera und dem Bildzeitgeber übertragen werden, in großem Umfang reduziert werden.
  • Die Datenrate, die vom System 10 typischerweise verarbeitet wird, überschreitet nicht 10 Mbits/s (z. B. entsprechend 1000 Einzelbildern pro Sekunde und 1024 aktiven Detektorelementen mit 8 Bits pro Element). Sodass das System 10 generell kein Objekt von Rauschproblemen, Zeitverzögerungen und Verarbeitungsbeschränkungen, ist, so dass der Abstand zwischen der Kamera 12 und dem Zeitgeber 14 der 1 und 4 zumindest 1000 Fuß in der Länge betragen kann.
  • Trotzdem kann die Menge an Informationen, die gespeichert und aufgenommen werden, für ein gegebenes Ereignis oder Serien von Ereignissen groß sein. Bei 10 Mbits/s, z. B. erfordert jede Sekunde eines Ereignisses ungefähr 1 MByte Speicherplatz. In einer bevorzugten Ausführungsform des Systems 10, ist ein virtuelles Speichersubsystem enthalten, um die Speicherung der Daten zu ermöglichen. 6 veranschaulicht ein System 100, das entsprechend der Lehre hier aufgebaut ist, welches ein virtuelles Speichersubsystem oder ein Harddisklaufwerk 102 enthält.
  • Das System 100 speichert Informationsblöcke in das virtuelle Speichersubsystem 102, wenn die Blöcke, die innerhalb des internen Speichers 36 für den Hauptsteuercomputer 16 gespeichert werden, eine vorbestimmte Speicherschwelle überschreiten. Ein Anwender kann die Schwelle auswählen oder sich auf die voreingestellten Einstellungen, z. B. 2 MBytes an internem Speicher, welcher zumindest 125 Informationsblöcke halten kann, verlassen. Funktionell greift der Hauptsteuercomputer auf jeden Block im internen Speicher durch einen dazugehörenden Software-Pointer zu, welcher einen Wert von Null hat, wenn der Block zu einem virtuellen Speichersubsystem übertragen wird.
  • Entsprechend kann das virtuelle Speichersubsystem als eine integrale Komponente des Systems 100 arbeiten, und im wesentlichen transparent für den Anwender sein. Wenn ein Informationsblock zur Verarbeitung durch den Hauptsteuercomputer 16 benötigt wird, wird der Block zum internen Speicher 36 übertragen und ein nichtbenötigter Block wird zu dem virtuellen Speichersubsystem 102 übertragen. Auf diese Weise kann das System 100 eine Szene an Informationen halten, welche in bedeutendem Maße die Menge an RAM in dem internen Speicher 36 überschreitet. In praktischen Begriffen arbeitet der hauptsächliche interne Speicher 36 als ein Cache für den Harddisk virtuellen Speicher 102.
  • Die Semantik zum Zugriff auf Einzelbilder von irgendeinem dazugehörenden Speicher ist geradlinig. Da eine bestimmbare Anzahl von Einzelbildern jede der Informationsblöcke umfasst, gibt die Einzelbildzahl dividiert durch die Anzahl der Einzelbilder pro Block die korrekte Blockadresse an und der Rest die korrekte Einzelbildadresse innerhalb des ausgewählten Blocks. Falls das Abschneiden einbezogen wird, wird der Speicher einfach in neue Einzelbildblöcke neu geordnet mit einer entsprechenden Neuzuweisung von Einzelbildadressen.
  • Sogar mit einer sehr großen Speicherkapazität innerhalb des Subsystems 102 kann es ebenso, wenn verschiedene Bewegungsereignisse in einer Reihe verarbeitet und gespeichert werden oder lange Ereignisse zeitlich bestimmt werden, überschritten werden. Eine Ausführungsform der Erfindung stellt darum ein Kompressionssystem zur Reduktion der Informationsmenge bereit, das in den Informationsblöcken benötigt wird. Das Kompressionssystem ist vorzugsweise zur Anwendung durch ein System verfügbar, das entsprechend der Erfindung gebaut ist, das das virtuelle Speichersubsystem 102 anwendet, welches zweckmäßig als ein Aufbewahrungsort für die komprimierten Daten arbeitet. Die Datenkompression kann automatisch oder selektiv durch den Anwender gewählt werden, z. B. nach Aufnahme eines besonderen Bewegungsereignisses.
  • Das Kompressionssystem verlässt sich auf die Tatsache, dass jedes Einzelbild innerhalb der Szene innerhalb dieselben Hintergrundinformationen hat. So dass, falls es keine Bewegungsaktivität innerhalb der FOV der Kamera gibt, jedes Einzelbild praktisch dieselben Informationen innerhalb ihm selbst hat, da das System konstant ein einzelnes stationäres Zeilenobjekt aufnimmt; es sind die Bewegungen der Körper, die die FOV-Ebene durchqueren, welche eine Szene des Interesses erzeugen. So dass viele Einzelbilder, die für eine gegebene Szene oder ein Bewegungsereignis gespeichert wurden, redundante Informationen haben.
  • Im besonderen erzeugt die Kamera 12 der 1 eine 8-Bit Graustufenzahl, d. h. eine Zahl innerhalb eines dynamischen Bereichs, der bis zu 256 Schattierungen von Grau hat, für jedes aktive Detektorelement in jedem Einzelbild. Dies entspricht der Menge an Lichtenergie innerhalb des Bildes des Zeilenobjekts, das an dem Detektor für ein gegebenes Einzelbild, aufgenommen wird. Wenn eine Se quenz von Einzelbildern redundante Informationen enthält, sind die 8-Bit Zahlen zwischen sukzessiven Einzelbildern ungefähr gleich.
  • In einer bevorzugten Ausführungsform ist der erste Schritt, der durch das Kompressionssystem unternommen wird, das Konvertieren jeder 8-Bit Zahl in eine ausgewählte Sequenz von digitalen Einzelbildern in eine 5-Bit Zahl im Bereich von 0–31. So dass eine 8-Bit Zahl zwischen den Werten 248–255 zu einer 31 transformiert werden würde; und eine 8-Bit Zahl zwischen 240–247 zu einer 30 transformiert werden würde; usw.. Dieser Kompressionsprozess opfert die Anzahl der Graustufen, die innerhalb eines Bildes verfügbar sind (d. h. wie „hell" ein spezieller Punkt auf einem Objekt durch 32 Zahlen repräsentiert wird anstatt von 256 Zahlen), rettet aber eine große Menge an Speicher. Es ist wert festzuhalten, dass dies kein signifikanter Verlust darstellt, da einige gemeinsame VGA Monitore nur 16 Schattierungen von Grau verfügbar haben.
  • 7 zeigt veranschaulichend eine Sequenz von Einzelbildern 112, die sieben 5-Bit Zahlen mit einem möglichen digitalen Wert von „A" oder „B" enthalten, und einen dazugehörenden Zeitbezug 114 in den letzten vier Bytes des Einzelbildes (in Wirklichkeit gibt es 32 verschiedene Werte, die in dieser Sequenz möglich sind, aber „A" und „B" werden zur einfachen Darstellung genutzt). So dass 7 eine Sequenz von Einzelbildern nach der anfänglichen Transformation durch das Kompressionssystem von 8-Bit Zahlen nach 5-Bit Zahlen veranschaulicht. In 7 (einschließlich 7A und 7B), repräsentiert jedes Quadrat ein Byte. Wie gesehen werden kann, sind die redundanten 5-Bit Zahlen sehr offensichtlich und verschwenden unnötigerweise Speicherplatz.
  • 7A zeigt den nächsten Schritt des Kompressionssystems, wobei jede Reihe der 5-Bit Zahlen durch Abschneiden der Zahlen von gleichen Werten innerhalb einer Reihe neu formatiert wird und dann diese Ansammlungen als eine „Zählung" und ein „Wert" repräsentiert werden. Die Zählung entspricht der Zahl der äquivalenten 5-Bit Zahlen in einer Serie und der „Wert" entspricht der aktuellen 5-Bit digitalen Zahl. So dass z. B. die erste Reihe von 16 5-Bit Zahlen „A" durch eine Zählung „16" und einen Wert „A" dargestellt werden kann. Die zweite Reihe hat eine Zählung „2", die den Wert „A" hat, gefolgt von einer Zählung „7", die den Wert „B" hat, und gefolgt von einer Zählung „7", die den Wert von „A" hat. Dieser Prozess setzt sich fort bis die Information innerhalb jeder Reihe von 5-Bit Zahlen eine Steigerung von „Zählungen" und „Werten", wie 7A veranschaulicht, hat. Es ist wert festzuhalten, dass falls die „Zählung" geringer als oder gleich dem Wert „7" ist, es durch eine 3-Bit Zahl darstellbar ist (die Zahl „8" ist reserviert für einen Hinweis, dass die Zählung durch einen separaten Byte repräsentiert wird). So dass in der zweiten Reihe der 7A, jede der „Zählungen" und der „Werte" den Platz einer 8-Bit Zahl einnehmen kann. Aber, falls die Zählung 7 überschreitet, werden die „Zählungen" und die „Werte" Zahlen durch einen separaten Byte repräsentiert.
  • Der letzte Schritt des Kompressionssystems ist in 7B gezeigt. Die signifikant getrimmten Reihen der 7A werden an jedem anderen angehängt, um die endgültige und komprimierte Darstellung der originalen Sequenz der digitalen Einzelbilder zu bilden, welche dann eine signifikant kleinere Speichermenge einnimmt. Die Zeitbezugsinformationen 114 bleiben jedoch unverändert. Beachte, dass in diesem Kompressionsschema das dargestellte m geringer ist als n, die Datei kann nicht ihre Originalspeichergröße überschreiten.
  • 8 veranschaulicht ein Kompressionssystem 120, das entsprechend der Erfindung aufgebaut ist. Im besonderen zeigt 8 drei Prozessaktuatoren 121, 122 und 123, welche die Schritte der Operationen, beschrieben in 7, 7A und 7B, durchführen. Eine Sequenz von digitalen Einzelbildern erreicht das System 120 an einem ersten Datenport 124. Prozessaktuator 121 konvertiert jede n-Bit Zahl innerhalb der Sequenz in eine repräsentative m-Bit Zahl, um z. B. ein Array zu bilden, wie in der 7 gezeigt. Prozessaktuator 122 formatiert das Array der Reihen von m-Bit Zahlen in repräsentative „Zählungen" und „Werten", wie z. B. in 7A gezeigt, neu. Prozessaktuator 123 formatiert wieder die Daten in ein sequentielles Listing neu mit der angehängten Zeitbezugsinformation, wie in 7B gezeigt. Die Daten, dadurch komprimiert, verlassen das Kompressionssystem von einem zweiten Datenport 126 zur Übertragung zu einem Speicher z. B. dem virtuellen Speichersubsystem.
  • Wenn ein Einzelbild zum Verarbeiten durch den Hauptsteuercomputer erforderlich ist, wird die komprimierte Information ähnlich in einen Informationsblock dekomprimiert bevor sie zur Anzeige und Manipulation durch einen Anwender des Systems verarbeitet wird. Auf die Dekompression sind jedoch nur 32 Graustufenzahlen verfügbar, nicht die originalen 256.
  • Wie bemerkt, gibt es eine Grenze für die Rate bei welcher ein Computer, eine Disk oder ein Kommunikationssystem Daten bearbeiten kann. Typischerweise kann die Erfindung z. B. visuelle Szeneninformationen über diese Datenrate hinaus erzeugen. Dies ist insbesondere gegeben, falls die Szeneninformationen Farbinformationen enthalten. Daher kann es notwendig sein, Szeneninformationen zu komprimieren, bevor sie durch den Computer, z. B. den Hauptsteuercomputer 16 der 1, gespeichert werden.
  • Entsprechend stellt die Erfindung für eine andere Kompression System 120a, 8A, bereit, welches eine hohe Bildqualität über den variablen Datenraten durch die Kamera, z. B. die Kamera 12 der 1, als auch über die akzeptablen Datenraten, die durch den Computer verarbeitet werden, erzeugt. Das System 120a hat drei Prozessaktuatoren 121a, 122a und 123a, welche die Schritte der Kompression und Quantifizierung der Operationen durchführen, unten mit Bezug auf die 8B8G beschrieben.
  • 8B zeigt repräsentative Datenpixel 140 von einer Schwarz- und Weißkamera, wo jeder veranschaulichte Pixel einen dazugehörenden 8-Bit numerischen Wert, 0–255, hat, der die Menge an Licht (Lichtintensität) darstellt, die durch dieses Pixel während der Aufnahme des Bildes erhalten wird. 8C anderenseits zeigt repräsentative Datenpixel 142 von einer Farbkamera, wobei jeder Pixel durch drei numerische Werte 142a, 142b und 142c dargestellt wird, welche roten, grünen bzw. blauen Lichtintensitäten zugeordnet werden.
  • In einer der 8B und 8C werden die Pixel horizontal entlang der Zeitachse 144 und vertikal entlang der räumlichen Trennungsachse 146 verschoben wie in Verbindung mit den 2 und 3 beschrieben wurde. Jedes vertikale Datenpixelarray ist repräsentativ für die Daten, aufgenommen in einem Einzelbild 148 einer Szene.
  • Um die Informationen in einer der 8B oder 8C zu komprimieren, führt das System 120a eine Serie von Kompressionsschritten an den Daten durch. Zuerst zieht Aktuator 121a des Systems 120a Pixel in einem Einzelbild von den Datenpixel, die an demselben räumlichen Ort in dem vorhergehenden Einzelbild erzeugt wurden, ab, so wie in 8B gezeigt. Entsprechend werden nur diese Pixel, deren Werte sich ändern, Werte nicht Null haben. Diese differenzierende Operation des Aktuators 120a verursacht die relative Verteilung der zu ändernden Pixelwerte: viel mehr Datenpixel werden Null sein oder nahe Null und diese Datenpixel können in einer effizienten Art kodiert werden, wie unten beschrieben.
  • Die Kompressionsoperation, die in 8D veranschaulicht wird, kann ähnlich auf farbige Bilder durch die Behandlung jedes Farbentyps als ein einfaches Schwarz- und Weißbild angewandt werden, wie in 8E gezeigt. In dieser Kompression zieht der Aktuator 121a des Systems 120a die roten Werte jedes Einzelbilds von dem roten Wert an demselben räumlichen Ort innerhalb benachbarter Einzelbilder ab. Ähnlich zieht Aktuator 121a grüne Werte von den grünen Werten und blaue Werte von den blauen Werten in angrenzenden Einzelbildern ab. Der kodierte Wert jedes resultierenden Farbpixel wird dann aus drei Differenzen zusammengesetzt.
  • Die oben beschriebenen Subtraktionsoperationen kann man sich als eine „Prädiktor"-Funktion vorstellen, und zwar, dass das in der Zeit nächste Pixel vorhergesagt wird als dasselbe wie das vorhergehende Einzelbild. Darum produziert Aktuator 121a einen „Prädiktor", um die Menge an Daten, die erforderlich ist die Informationen darzustellen, zu reduzieren. Es ist nur notwendig mehr Informatio nen zu speichern oder zu übermitteln, wenn die gegebene Vorhersage falsch ist, z. B. nur wenn zumindest eine der B-A Pixeleingänge nicht Null ist.
  • Dieser differenzierende Prädiktor kann weiter verbessert werden, um die Pixelwerte in benachbarten Einzelbildern besser vorherzusagen. Z. B. veranschaulicht 8F eine doppelt differenzierende Prädiktortechnik entsprechend der Erfindung. Aktuator 122a produziert diesen Prädiktor durch Berechnung einer doppelten Differenz, wobei die Differenz der vorhersagbaren Pixelpaare dazu genutzt wird, um den aktuellen Pixel genauer vorherzusagen.
  • Im besonderen zeigt 8F vier repräsentative Pixel A-D, welche aufeinanderfolgende Pixel in vier beieinanderliegenden Einzelbildern sind. In diesem Beispiel ist das Pixel D das Pixel, welches durch den Aktuator 122a komprimiert wird. Der Prädiktorwert von D, d. h. DPrädiktor wird wie folgt berechnet: DPrädiktor = C + (B – A)
  • Dieser Wert wird durch den Kompressor an der Kamera und durch den Dekompressor erzeugt, wenn er vom Speicher oder entlang einer Kommunikationsleitung von den schon erhaltenen Werten von A, B und C, erhalten wurde.
  • Darauf folgend wird der Prädiktorfehler durch den Aktuator 122a kodiert als: EPrädiktor = D – DPrädiktor
  • Wie mit der einfachen differenzierenden Kompression ist es nur notwendig diesen Prädiktionsfehlercode zu senden, falls er nicht Null ist.
  • Der doppelte differenzierende Prädiktor der 8F wird einfach auf Farbbilder durch separate Behandlung jedes Farbabschnitts des Pixels ausgeweitet, ähnlich dem in 8B und 8C beschriebenen. So dass Aktuator 122a drei ähnliche Operationen, wie oben für jeden der drei Farbkomponenten der Pixel dargestellt, durchführt.
  • Aktuator 123a des Systems 120a digitalisiert darum die Einzelbilder, dabei einen 8-Bit Konversionsprozess anwendend, um Bildpixelwerte im Bereich von 0 bis 255 herzustellen. Diese Pixelwerte werden vorzugsweise durch Aktuator 123a durch Konvertieren der 8-Bit Zahl in eine Zahl mit weniger Bits, z. B. 5-Bits, quantifiziert, bevor die Information dem Betrachter dargestellt wird. Eine Methode zur Quantifizierung der Daten ist die Pixelwerte zu kürzen und irgendwelche niederen Befehlsbits zu ignorieren, wie in 8G veranschaulicht.
  • Die Erfindung stellt ebenso einen noch ausgeklügelteren Quantifizierungsprozess durch Detektieren nur der Pixelwerte bereit, welche von dem Prädiktor durch eine Menge abweichen, die größer ist, als eine Menge T, welche einen Rauschwert darstellt und als einen Quantifizierungsauflösungsschritt dient. Diese Pixel, welche zwischen den Quantifizierungsschritten schwingen, stellen Rauschen dar. Darum, in Übereinstimmung mit einer Ausführungsform der Erfindung, erzeugt Aktuator 123a solche Pixel, die durch Rauschen als identische 5-Bit gekürzte Werte beeinflusst werden, d. h. als Nulldifferenzpixel. Ein Beispiel dieses verbesserten Quantifizierungsprozesses wird in 8H veranschaulicht. Beachte, dass ein höherer Quantifizierungsschritt T1 und ein unterschiedlicher niedrigerer Quantifizierungsschritt T2 gezeigt werden, aber ein einzelner Schritt T ebenso genutzt werden kann.
  • Wenn einmal die Bilddatenpixel durch den Rauschbandquantifizierer und den oberen Prädiktordifferenzierungsprozess verarbeitet werden, stellt die resultierende Menge an Pixel Pixelunterschiede dar. Da nach Anwendung der Quantifizierungsschwelle T, eine sehr große Anzahl von Differenzwerten Null sein wert, oder nahezu Null, werden die Daten ausgehend von ihrer Originalgröße komprimiert. Die differenzierten Pixel können weiter kodiert werden, d. h. komprimiert, entsprechend den Standardcodeschemata oder entsprechend dem Kompressionssystem wie es in Verbindung mit 6 und 7 beschrieben wurde.
  • In einem Farbsystem ist es möglich, die drei Farbunterschiede als ein einzelnes Symbol zu kodieren. Solch ein Kodieren kann aus korreliertem Verhalten der Farben Nutzen ziehen.
  • Das Kompressionssystem 120a der 8A kann mit der Struktur der Prozessaktuatoren 121, 122 und 123 der 8, soweit angemessen, erweitert oder angereichert werden, um zusätzliche oder ergänzende Kompressionsschritte durchzuführen. Sodass, wie im Kompressionssystem 120 der 8, eine Sequenz von digitalen Einzelbildern, die das System 120a an einem ersten Datenport 124a erreichen durch Prozessaktuator 121a von n-Bit Zahlen in m-Bit Zahlen konvertiert werden können, um z. B. ein Array, wie in 7 gezeigt, zu bilden. Prozessaktuator 122a formatiert danach das Array der Reihen der m-Bit Zahlen in repräsentative „Zählungen" und „Werte", wie z. B. in 7A gezeigt, neu. Prozessaktuator 123a formatiert wieder die Daten in eine sequentielle Liste mit der angehängten Zeitbezugsinformation neu, wie in 7B dargestellt. Daten, derart komprimiert, verlassen das Kompressionssystem von einem zweiten Datenport 126a zur Übertragung an einen Speicher, z. B. dem virtuellen Speichersubsystem.
  • Ein wichtiges Merkmal oder Vorteil des oben erwähnten Kompressionssystems 120a ist seine echtzeitabstimmbare Kompressionsfähigkeit. Eine einzelne fest verdrahtete Kompressionsschaltung würde das System dazu zwingen einen Kompromiss bei der Bildqualität auszusuchen, dadurch die Bildqualität absenken, sogar falls die Bandbreite passend zum Bildstrom wäre; oder weitere Beschränkung der Geschwindigkeit sogar in Fällen, wo die Bildqualität unkritisch ist. Abstimmbare Kompression in Übereinstimmung mit einem bevorzugten Aspekt der Erfindung erlaubt diesen Kompromiss in Echtzeit und dies nur falls notwendig.
  • Dies wird wie folgt erreicht. Ein Puffer wird in der Kamera oder in dem Kompressionsmodul 120a zum Erhalten des Eingangszeilenbilddatenstroms 124a bereitgestellt und ein Puffermonitor zeigt an, wie voll der Puffer ist, z. B. 10 Prozent, 50 Prozent, 80 Prozent. Der Typ der Kompression, der im Modul 120a imple mentiert ist, wird dann ausgewählt basierend auf dem Rückstand der unkomprimierten Bilddaten in dem Puffer. Bei einem Extrem gibt es keine Kompression oder Kompression durch eine Methode, die zuerst oben beschrieben wurde, welche ohne Verluste ist oder sehr nahe daran. Am anderen Ende ist eine Kompressionsmethode die eine große „Rauschspanne" in dem Quantifizierer erlaubt und die Bandbreite des Datenstroms auf Kosten der Bildqualität beachtlich reduziert. Da diese Rauschspanne sofort in dem Kompressionsmodul gesetzt werden kann, kann die Qualität des Bildes angepasst werden, so dass es für eine gegebene Datenrate maximiert ist. Z. B. bei Benutzung des originalen Leitungsinterface des Prototypensystems, welches 500 KBytes pro Sekunde durchsetzen kann, würden seltene 16-Bit-pro-Pixel Bilddaten nur bei einer Rate von 250 Zeilen pro Sekunde für eine 1000-Pixel-Zeile funktionieren. Um Zeilen schneller zu senden, muss man die Bilddaten in Echtzeit komprimieren. Wie viel Kompression angewandt wird, hängt von der Zeilenrate ab, die benötigt wird und der inhärenten „Kompressibilität" der Daten (eine Szene, die sich nicht oft ändert ist z. B. viel kompressibler da die Einzelbild-zu-Einzelbild Differenzen sehr klein sind). Die Größe des Puffers wird derart ausgewählt, dass das System zeitweise „hinter" seine Kompression der Daten gehen kann und nur zu einer drastischeren Kompression schaltet, falls der Puffer fortfährt, hinterher zu fallen.
  • Das System setzt die abstimmbaren Parameter eher auf der erwarteten kontinuierlichen Datenrate als auf kleine Spikes in der Datenrate überzureagieren, die von Änderungen in der Szene herrühren. Eine Möglichkeit dies zu erreichen ist, für das System eine Entscheidungsregel zu implementieren, dass es keine Kompression nutzen wird bis die Daten 10% des Puffers füllen. Bei diesem Wert wird eine kleine Menge von Kompressionen hinzugefügt. Wenn der Puffer einen kritischen Zustand erreicht (z. B. zu 75% voll), kann das System auf drastische Maßnahmen zugreifen, wie z. B. Fallenlassen jedes anderen Einzelbildes oder jedes anderen Pixel.
  • Wenn es als ein Eventaufzeichnungssystem genutzt wird, wie z. B. an der Ziellinie eines Rennens, kann das zeilenscannende Kamerasystems der vorliegen den Erfindung zur Aufnahme und Auflösung von Bewegungen die eintausendstel Sekunde auseinanderliegen angewandt werden. Jedoch ist es bei einer solchen Einstellung von äußerster Wichtigkeit nicht ganze Abschnitte des Bildes zu verlieren. Das Ziel ist es immer die 500 KB/s Bandbreite des Kabels zu nutzen, während das Bild so hochqualitativ wie möglich erhalten bleibt. Die 500 KB/s repräsentiert nicht nur die Bandbreite einer Kabelleitung zu der Kamera, sondern ist sehr nahe an der besten Performance von modernen Disklaufwerken. So dass, sogar um das Bild direkt auf die Disk aufzunehmen, diese Datenrate erhalten werden sollte. Durch Anordnen des Kompressionsmoduls 120a an oder in der Kamera wird keine der Verarbeitungsmöglichkeiten des Systemcomputers 16 an den Kompressionsprozess umgeleitet.
  • Die vorhergehende „abstimmbare" adaptive Methode der Kompression ist hocheffektiv für Zeilenbilder des Anmelders und sie ist unähnlich der Kompression, die in vielen anderen Videoanwendungen, in denen die Qualität der Bereiche des Bildes für die Qualität der Kanten geopfert wird. Im Gegenteil neigen die meisten Video- oder Bildkompressionsalgorithmen (einschließlich Discrete Cosine Transform (DCT) oder JPEG dazu, die Kanten für die Bereiche zu glätten. in der Eventkameraanwendung des Anmelders sind es die Kanten, welche typischerweise bestimmen, welches Objekt vor welchem ist. So dass die Kompression die Einzelbild-zu-Einzelbild Kantenabgrenzung bei hohen Datenraten erhält oder steigert. Die Erfahrung mit einer einfachen Prototypenimplementierung dieses Algorithmus, welcher eine theoretische obere Grenze der Kompression von fünf hat, hat belegt, dass in einer gut ausgeleuchteten Szene es normal ist, Echtzeitdaten-Kompressionsverhältnisse im Bereich von 3,5 bis 4,5 mit wenig erkennbarem Effekt auf die Bildqualität zu erhalten.
  • In Übereinstimmung mit noch einer anderen Ausführungsform, die kein Teil der vorliegenden Erfindung ist, erzeugt eine Farbzeilenscannende-Eventkamera wie oben beschrieben oder vorzugsweise ein Bediener gesteuerter Computer 16 an einer beobachtenden Stelle eine kleine Farbpalette, zu welcher die Farbwerte der Pixel in ihrer Abfolge der Einzelbilder passen, so dass jeder 15-Bit RGB Pixelwert durch eine von nicht mehr als 256 Farben in der Palette dargestellt wird. In Übereinstimmung mit dieser Ausführungsform, eher als das Benutzen einer voreingestellten Palette oder einer Zweipassprozedur, wobei alle Pixeldatenfarben in jedem Einzelbild durchgesehen werden und eine Palette ausgesucht wird, welche am genauesten den Bereich der Farben repräsentiert, ist die Palettenzusammenstellung adaptiv und seine Eingänge werden als die Einzelbilddaten ausgewählt, die verarbeitet werden.
  • Diese Ausführungsform behandelt die Schwierigkeiten einer Farbanzeige in der besonderen zeitsensitiven Umgebung der vorliegenden Erfindung. Im allgemeinen werden komprimierte Videodaten von der Kamera mit zeitmarkierten Informationen gespeichert, so dass eine inhärente Wartezeit modulo erreichbar gemäß der Netzwerkkommunikationen, Speicherzugriff und allgemein ebenso Kompressionsverwaltungen sind. Diese Verzögerungen sequentiell mit einem Zweiscannpalettierungprozess oder sogar erhaltene und verzögernde Auszüge mit einer kleinen festgelegten Palette darzustellen, wäre restriktiv. So dass Videodaten entweder direkt von der Kamera oder so wie sie vom Speicher erhalten werden für 256 Farbanzeigen durch Erzeugen einer Farbzuweisungstabelle „mit heißer Nadel" palettisiert werden. Der Palettisierungsprozess weist keine Beobachtungsverzögerung auf und jede Einzelbildsequenz beginnt mit nahezu perfekter Farbtreue. Spätere Einzelbilder werden dann gezwungen sich der kleinen Farbpalette anzupassen, die von den anfänglichen Einzelbildern abgeleitet ist.
  • 11 veranschaulicht diesen Aspekt. Jede Zeile oder „Einzelbild" F1, ... Fm, erzeugt durch die Farbkamera, hat n Pixel, die durch ein fünf Bit Wort für jeden der roten, grünen und blauen Komponenten spezifiziert werden, die 15 Quellen Bits erzeugen 215 = 32 K mögliche Farben. Diese Daten können auf einer Videoanzeige direkt benutzt werden, die im sog. „High Color"-Modus einer Videokarte, die auf Simultananzeigen von 32 K Farben verfügbar ist, arbeitet. Jedoch, um für interaktive Untersuchung des Bildes nützlich zu sein – z. B. um das Bild für den Bediener aufzurufen, die Einzelbilder zu inspizieren und Marken während dem Betrachten des Materials auf einem Display zeitlich festzulegen – ist es im allgemeinen vorzuziehen, dass die seltenen Daten, welche auf einem Zielbild abgebildet werden, wenige Bits pro Pixel enthalten. Viele Laptops und andere PCs werden z. B. mit dem 256 Farbenmodus genutzt.
  • Es ist wünschenswert, dass die Farben des Quellbilds ähnlich dem Bild, das mit nur der kleinen Palette von Zielbildfarben erstellt wird, erscheint. Jedoch bedingen die üblichen Prozesse für dieses Abbilden entweder einen zeitbeanspruchenden Lauf durch das ganze Quellbild, um den Bereich der Farben zu identifizieren und eine reduzierte Anzahl von repräsentativen Farben herauszupicken, die genügend nahe beieinander liegen oder zu einer Abbildung aller Farben auf eine vorbestimmte, festgelegte Palette führen. Im letzteren Fall, während die Übertragung auf das Farbenformat des Zielbildes schnell ist, können die Farben recht unterschiedlich von dem aktuellen Anschein erscheinen, was zu einer irreführenden oder verunsichernden Erscheinung führt.
  • Dieses Problem wird durch einen Palettisierer 210 gelöst, der z. B. in Software im Terminal 16 (1) implementiert werden kann, der Einzelbilder Fi der Quellbilddaten erhält und ihre RGB bewerteten Pixel Pi zu Pixelwerten Pi' verwandelt, die eine kleine Anzahl von Farbwerten Ci in einem Zieleinzelbild Fi' haben. Die Werte Ci werden adaptiv festgelegt und in eine Farbtabelle 220, solange die Umwandlung fortschreitet, eingebaut.
  • 11A veranschaulicht diese Pixelfarbenverarbeitung. Der Palettisierer 210 wird aktiviert, wenn ein Bediener eine Sequenz von Einzelbildern aufruft, typischerweise durch den Timingkennzeichner spezifiziert, welcher alle Bilder indiziert. Die Farbnachschlagetabelle 220 ist anfänglich leer. Palettisierer 210 inspiziert die Pixelwerte P1, P2 ... Pn des ersten Einzelbildes F1, wobei anfänglich der Wert von P1 als die erste Farbe C1 ausgewählt wird, um zur Tabelle 220 hinzugefügt zu werden und dem entsprechenden Pixel Pi' des Zieleinzelbildes beizufügen. Darauf wird festgelegt, ob der Wert des zweiten Pixel P2 des Einzelbilds ausreichend nahe bei C1 ist, um es durch die gleichen Farben darstellen zu können. Nähe kann z. B. durch eine Distanzfunktion definiert werden, die auf den 15-Bit RGB- Koordinaten operiert, sowie als eine Summe von Differenzen in RGB-Werten oder Summe von Quadraten von Differenzen.
  • Andere „Distanz"-Funktionen können genutzt werden, welche empirisch gefunden wurden, um das kognitive Urteil von „Nähe" bei der menschlichen Farbwahrnehmung nachzubilden, um sicher zu stellen, dass z. B. eine niedrige Intensität von purem Blau niemals auf eine niedrige Intensität von Rot abgebildet wird.
  • Fortfahrend mit der Beschreibung der 11A, falls P2 nahe bei P1 ist, wird der Farbwert P2' ebenso auf C1 gesetzt. Anderenfalls wird eine neue Farbe C2 in die Tabelle 220 aufgenommen und der Wert von P2' in dem Zieleinzelbild wird zu C2 gleichgesetzt. Daraufhin wird jeder Pixelwert Pi inspiziert, um zu bestimmen, ob er einem der schon beigegebenen Farben Ci – k0 für einige Werte k0 < i nahe ist, und falls dies so ist, wird Pi auf die Farbentabelle Ci – k0 abgebildet. Anderenfalls, falls Pi nicht nahe zu irgendeiner Farbe ist, dann ist die bereitgestellte Tabelle 220 noch nicht gefüllt, wird der Wert des Pixel Pi als der nächste Farbeingang C in die Tabelle genutzt und den Pixeln Pi' in dem Zieleinzelbild zugeordnet. Anderenfalls, falls die Tabelle 220 voll ist, aber Pi nicht nahe (z. B. innerhalb δ von) irgendeinem Ci ist, wird eine andere Abbildung angewandt. Der Pixel Pi ist einfach dem Wert Cj zugeordnet, welcher näher als die anderen Farben der Tabelle ist. An dieser Stufe in der Prozessverarbeitung operiert der Palettisierer an den Pixel in einer Abfolge und bewegt sich zu dem nächsten Einzelbild weiter.
  • Auf diese Weise wird eine Anzahl von bis zu 256 Farben für eine Farbabbildungspalette erstellt, in welcher die Palette anfänglich den Quellfarben sehr nahe kommt. Nachdem eine Anzahl von Einzelbildern verarbeitet wurden und die Tabelle 220 voll ist, werden nach und nach auftauchende Farben in die bestehende Palette „gezwungen" und die Bildfarbe wird weniger genau sein. Jedoch im Zusammenhang mit einer scannenden Kamera mit festgelegter Ausrichtung werden bestimmte Abschnitte des Bildes, wie die Bahn und die Landschaft im Hintergrund der Ziellinie des Rennens, während aller Einzelbilder unverändert bleiben und in akkuraten Farben erscheinen, die als anfängliche Eingänge in die adaptive Farbpa lette kodiert wurden. Ferner, wenn die Farbabbildung nur genutzt wird zum Aufrufen und Untersuchen von wenigen Sekunden Dauer von zeilenscannenden Einzelbilddaten werden die 256 Farben ausreichen, um vollständig und akkurat alle Einzelbilder darzustellen.
  • Die Palettierungsschritte, die einfache „Nähe"-Maßnahmen auf einen eingehenden digitalen Wortpixelwert gegenüber einer kleinen Anzahl von Farbwertwörtern aus der Tabelle beinhalten, sind extrem schnell und Palettisierung kann in Echtzeit, während die Einzelbilder betrachtet werden, durchgeführt werden.
  • 9 zeigt ein System 101, das einen zusätzlichen Computer 104 und zusätzliche Puffer 106 und 108 innerhalb des Bildzeitgebers 110 umfasst. Diese Hinzunahmen sind nicht alle für die Operation des virtuellen Speichersubsystems 102 oder irgendeiner anderen Komponente wie oben beschrieben erforderlich, sind aber bei anderen Merkmalen der Erfindung recht nützlich.
  • Im besonderen ermöglicht der Computer 104 einem zusätzlichen Anwender auf Teile der zuvor aufgenommenen Segmente zuzugreifen und diese zu analysieren, die auf der Harddisk 102 abgespeichert sind. Ähnlich dem Hauptcomputer 16 der 1 werden Informationsblöcke in den internen Speicher 116 geladen, bevor die Informationen verarbeitet und angezeigt werden. Alle Merkmale, die auf dem Hauptsteuercomputer 16 verfügbar sind, sind ebenso auf dem zusätzlichen Computer 104 verfügbar, wodurch ein komfortables Forum für andere Verwaltungen der Daten, die während einer Sequenz von Bewegungsereignissen verarbeitet werden, z. B. bereits aufgenommene Rennen, zur Verfügung gestellt wird. Natürlich kann der Hauptsteuercomputer 16 ebenso dazu genutzt werden, um zuvor aufgenommene Segmente von irgendwelchen vorhergehenden Bewegungsereignissen nochmals durchzusehen – und sogar während der Aktivitäten eines laufenden Bewegungsereignisses – oder im Echtzeitmodus zu arbeiten und das aktuelle Bewegungsereignis, wie es durch die Kamera 12 aufgenommen wurde, darzustellen.
  • Eine Anzahl an Computern, wie der Computer 104 sind ähnlich an das virtuelle Speichersubsystem angeschlossen, falls andere Anwender wünschen, gleichzeitig auf Daten, die auf der Harddisk gespeichert sind, zuzugreifen. Ein Computer, der zur Anwendung innerhalb des beschriebenen Systems geeignet ist, enthält gewöhnliche IBM Personalcomputer oder Kompatible mit einem 8086 Prozessor, einem VGA-Videoadapter und 640 K an RAM.
  • Die Puffer 106 und 108 innerhalb der Bildzeitgeber 110 der 9 veranschaulichen ein anderes wichtiges Merkmal, nämlich die Zusammenfassung von einer Mehrzahl von Digitalkameras zum System 10 der 1. Unter Umständen ist es wünschenswert, die Bewegung der Körper, die die Ebene im Raum durchqueren aus zwei oder mehr Blickwinkel zu betrachten. Z. B. ist es gut möglich, dass in einem Rennen bei einem engen Ausscheidungskampf ein Rennteilnehmer den Blick einer einzelnen Kamera auf einen anderen Rennteilnehmer blockiert. Um dieses potentielle Problem zu korrigieren, können eine oder mehr zusätzliche digitale Kameras, wie die erste, zusätzliche Sequenzen an digitalen Einzelbildern des Zeilenobjekts des Interesses erzeugen. Vorzugsweise betrachtet jede zusätzliche Kamera im wesentlichen dieselbe Ebene im Raum, z. B. stellen zwei Kameras auf jeder Seite einer Rennstrecke die Anwendung exemplarisch dar.
  • Da die Puffer für jede Kamera innerhalb des Bildzeitgeber angeordnet sind, stellt ein einzelner Takt 112 den Zeitbezug für alle Einzelbilder bereit, die beim Zeitgeber eingehen. Der Zeitprozessor 114 kann somit jedes Einzelbild mit einem kalibrierten Zeitbezug kennzeichnen, und ermöglicht hiermit jeder Kamera asynchron zu arbeiten. So dass jede der Kameras jede ausgewählte Einzelbildrate oder Dichte haben kann und der Bildzeitgeber fortfährt jedes Einzelbild, wie es eingeht, akkurat zu kennzeichnen.
  • Entsprechend der Erfindung wendet das System, eher als das Entwickeln eines Multi-Puffer zeithaltenden Moduls zum Erhalten und Kennzeichnen von Einzelbildern aus einer Anzahl an verschiedenen Kameras, Kameras an, die abstimmbare Zeitgeber haben, die akkurat genug gehalten werden, um jedes Einzelbild mit einer genauen Zeit zu kennzeichnen, bevor es zum Speicher oder dem Zentralprozessor gesendet wird. Die abstimmbaren Zeitgeber sind nicht von sich heraus extrem akkurat und sie können mit einfachen Oszillatorschaltungen und Teilern implementiert werden, um einen lokalen Takt zu bilden. Jedoch kommuniziert jede abstimmbare Kamera periodisch mit einem Präzisionszeitgeber und nachdem anfangs eine synchrone Zeit etabliert wurde, wird periodisch seine Taktrate neu abgestimmt, um Synchronizität zu erhalten. Sodass in einem System, in dem solche Kameras angewandt werden, jedes Einzelbild, das durch eine Kamera erzeugt wurde, mit einer „absoluten" Zeitmarkierung gekennzeichnet wird.
  • Eine Ausführungsform eines solchen Systems 200 wird in 9A und 9B veranschaulicht. Das System enthält eine Anzahl an zeilenscannenden Kameras, von welchen eine eine primäre Kamera C1 ist und der Rest sekundäre oder Slave-Kameras Cj sind. Die primäre Kamera C1 enthält eine Präzisionszeitquelle T1 und einen Bildabschnitt V1, der aus einer zeilenscannenden Sensoranordnung und zugeordneten Videokomponenten im wesentlichen wie oben beschrieben, besteht. Jede Slave-Kamera Cj enthält eine abstimmbare Zeitquelle T2, wie unten beschrieben, mit einem Bildabschnitt V1 identisch dem der ersten Kamera. Alle Kameras sind über Verkabelung verbunden, so dass die sekundären Kameras entweder direkt oder über einen Zentralsteuercomputer, mit der Präzisionszeitquelle der Kamera C1, kommunizieren können. Es wird in der nachfolgenden Diskussion verständlich, dass während auf C1 als eine Präzisionszeitquelle enthaltend hingewiesen wurde, auf die jede Slave-Kamera sich bezieht, das System ebenso ausschließlich aus Slave-Kameras bestehen kann. In diesem Fall ist Kamera C1 einfach eine andere Slave-Kamera und eine separate Präzisionszeitquelle wird zur Verfügung gestellt so wie die des Bildzeitgebers 14 der 1, mit der alle Slave-Kameras periodisch ihre Takte synchronisieren. Der Prozess des Synchronisierens enthält die Spezifikation eines Zeitoffsets für jede Kamera C auf eine Art, die in der Technik für auseinanderliegende oder zeitaufnehmende Systeme bekannt ist, um die Verzögerungen beim Senden und Erhalten von Zeitcheckbotschaften entlang der Verkabelung, bezugnehmend auf den Quellzeitgeber T1 (d. h. Leitungsverzögerungen, Schaltungsverzögerung und Netzwerkbotschaftsverarbeitungsverzögerungen), zu kompensie ren und diese anfängliche Offsetkorrektur wird in der nachfolgenden Diskussion vorausgesetzt.
  • Der lokale Zeitgeber T2 jeder Slave-Kamera wird in 9B gezeigt und besteht aus einem lokalen Oszillator LO zusammen mit einem oder mehr Zwischenfrequenzstufen S1, S2, S3 und einer Taktentstehungs- oder Zählstufe S4. Die Zwischenfrequenzstufen werden typischerweise durch einfache geteilt-durch-n Schaltungen gebildet – z. B. spezielle Logikarrays – während die Taktentstehungsstufe eine Schaltung von einer oder mehr Addieren, Zählern und ähnlichem umfasst, welche einen Zeitgeber aufbauen, der ausgesuchte der IF-Signale nutzt. Der lokale Oszillator LO kann irgendeine lokal verfügbare Frequenzquelle sein, wie z. B. ein 16 MHz Takt des Kameramikroprozessorcontrollers, eines separaten Timingchips oder ähnlichem. Da die IF-Teilerstufen einfach die lokale Oszillatorfrequenz teilen, ist der resultierende lokale Zeitgeber akkurat innerhalb einer Toleranz entsprechend der des Oszillators.
  • Wie in 9B gezeigt, enthält eine der Zwischenfrequenztaktstufen, veranschaulichenderweise S1, bezuggenommen hier als die „prescaler"-Stufe, zwei Teilerschaltungen mit eng benachbarten Teilern m und m + k, wobei k eine kleine Zahl wie 1 oder 2 ist, so dass abhängig davon, welcher Teiler genutzt wird, es einen Taktpulszug einer Frequenz f/m oder f/(m + k), f ausgibt, der die lokale Oszillatorfrequenz ist. Der Teiler m und m + k werden derart gewählt, dass eine Frequenz f/m in einer schneller-als-die-aktuelle Zeittaktrate resultiert, während die andere f/(m + k) in einer langsamer-als-die-aktuelle Taktoperation resultiert.
  • Zur Anwendung in einer zeilenscannenden Eventtimingkamera wird es bevorzugt, dass der Zeitgeber abgebildete Ereignisse mit einer Auflösung von ungefähr einer Millisekunde oder besser auflöst. Eine repräsentative Ausführungsform, die eine derartige Auflösung hat, ist implementiert, wobei ein 16 MHz lokaler Oszillator, ein einzelner Frequenzteiler oder eine Prescaler-Stufe S1 und ein 32-Bit Zähler, genutzt werden. Der Prescaler für normale Taktoperation könnte die Oszillatorfrequenz durch eine Zahl n teilen, um einen annähernd akkuraten Takt zu er halten. Gemäß der vorliegenden Erfindung werden die Zahlen m und k, auf die oben Bezug genommen wird, als n – 1 bzw. 2 gewählt, so dass der Prescaler eine teilen-durch-(n – 1) und teilen-durch-(n + 1) Schaltung enthält. Einer dieser (n – 1) Resultate resultiert in einem schnellen IF-Takt „F", während der andere (n + 1) einen langsamen IF-Takt „S" herstellt. Ein Auswahlbaustein operiert mit einer Rate, die durch die Kameraverarbeitungsschaltungen gesteuert wird, welcher Timinginformationen mit der Präzisionszeitquelle austauscht und einen Divisor oder den anderen auswählt, abhängig, ob die Taktzeit aktuell früh oder spät ist. Die Rate dieser speziellen Zyklen und die Richtung des Zeitfehlers bestimmen die offensichtliche Geschwindigkeit des lokalen Oszillators zu irgendeinem Zeitpunkt und falls einmal Synchronizität etabliert wurde, bleibt der absolute Zeitfehler innerhalb vorgesetzter Grenzen.
  • Z. B. müsste nominell ein 16 MHz-Oszillator durch 125 geteilt werden, um einen 128 KHz Taktwert zu erhalten. Falls der Prescaler einen geteilt-durch-124 Zyklus jede Millisekunde nutzt, steigert sich die nominale 128 KHz Taktrate auf 128.0079125 KHz, eine Steigerung von 61 Teilen pro Million. Ähnlich, falls der Prescaler einen geteilt-durch-126 Zyklus jede Millisekunde nutzt, fällt die Taktrate durch 61 Teile pro Million. So dass durch Änderung der Zeitmenge, während welcher N + 1 oder N – 1 Zyklen-prescaling von dem Prescaler durchgeführt wird, der Takt um einige Millisekunden pro Minute beschleunigt oder verzögert werden kann und durch Neuabstimmen zu viel kürzeren Intervallen die Taktzeit mit der notwendigen Genauigkeit erhalten werden kann.
  • Durch Nutzen dreier Teiler 124, 125 und 126 kann der Takt mit einer langsamen, normalen oder schnellen Rate laufen gelassen werden. In diesem Fall kann der normale Teiler 125 voreingestellt genutzt werden, bis der Komparator bestimmt, dass es notwendig ist, den Takt zu beschleunigen oder zu verzögern. 9C zeigt solch einen lokalen Takt mit drei diskreten Timingraten für das Phaselocked Tracking der Präzisionsquelle.
  • Diese Fähigkeit ermöglicht der Kamera ihren Takt anzupassen bis er mit dem Takt des Referenzzeitgebers übereinstimmt. Wenn einmal die Kamera ihren Takt gut genug angepasst hat, kann sie ihren eigenen lokalen Zeitgeberwert nutzen, um die Zeit auf den Einzelbildern zu kennzeichnen. Periodisch checkt die Kamera die aktuelle Zeit und setzt das Prescalertiming, um den lokalen Takt zu beschleunigen oder zu verzögern, um Synchronizität zu bewahren.
  • Auf diese Weise stellt der nichtpräzise lokale Oszillator in jeder sekundären Kamera einen kontinuierlich abgestimmten lokalen Takt bereit, der, obwohl offensichtlich um ein Zehntel eines Prozents beschleunigend oder verlangsamend, seine Fehlerrichtung oft ändert und immer dem Präzisionszeitgeber innerhalb eines oder sogar ein Zehntels einer Millisekunde folgt.
  • 10 veranschaulicht eine typische Darstellung eines Rennens, das zwei separate Kameras auf gegenüberliegenden Seiten der Bahn hat. Dieses Bild ist für alle Computer verfügbar, die hier diskutiert wurden, einschließlich des zusätzlichen Computers 104, vorausgesetzt, dass zumindest zwei Kameras in einem System integriert sind, das gemäß der Erfindung aufgebaut ist.
  • Die Richtung jeder dargestellten Sequenz der digitalen Einzelbilder, die eine Szene bilden, ist durch Neuordnen der Sequenz der Einzelbilder reversibel. So dass z. B. beide der Szenen, die in der 10 dargestellt sind, zurückgedreht werden können, falls sie vorzugsweise durch einen Anwender des Computers ausgewählt werden. Durch Operation mit einer Maus können daher die separaten Ansichten der identischen Teilnehmer innerhalb der zwei Szenen erscheinen, als ob sie in derselben Richtung sich bewegen würden.
  • Das hier beschriebene System hat noch weitere Merkmale für Anwender an irgendeinem angeschlossenen Computer verfügbar. Vor der Aufnahme eines Bewegungsereignisses, kann z. B. ein auswählbarer Teil der dargestellten Szene mit einem Objektidentifizierer einzigartig verbunden werden. Sodass entlang des räumlichen (vertikalen) Bereichs des Bildschirms, eine oder mehr Laufbahnen auf einem Rennkurs – und im besonderen die Läufer darin – mit einem besonderen Abschnitt auf dem Bildschirm verbunden werden kann. Ein Anwender kann z. B. auf diesen Abschnitt zeigen und die Informationen bezogen auf diese Rennbahn erhalten, wie den Namen des Teilnehmers. Ferner kann, da jeder Abschnitt, der auf dem Bildschirm dargestellt ist, einen einzigartigen Zeitbezug, der mit ihm verbunden ist, hat, ein Anwender auf die Zeit, die mit einem ausgewählten Abschnitt des Bildschirms verbunden ist, ähnlich zugreifen und darstellen und seine Resultate darstellen. In der Anwendung kann z. B. ein Anwender die Rennbahn des Gewinners in einem Rennen auswählen, um den Namen der Person zu sehen; und im besonderen kann ein Anwender den ersten Abschnitt des Körpers des Siegers auswählen, der die Ziellinie durchquert, um die dazugehörende Siegeszeit darzustellen. In einer bevorzugten Ausführungsform sind beide der Objektidentifizierer und die Zeit, die mit irgendeinem Abschnitt der Szene auf den Display verbunden ist, automatisch in die Resultattabelle aufgenommen, falls von dem Anwender ausgewählt.
  • Irgendein Display, das eine Szene, Rennresultate oder irgend andere Informationen zeigt, die durch den Anwender auswählbar sind, können zu jeder Zeit durch einen geeigneten Druckbefehl, der am Computer angewählt wurde, gedruckt werden.
  • Der Begriff „Graustufe", wie hier benutzt, soll, nicht nur klassische Graustufenwerte einschließen, sondern kann ebenso eine äquivalente Farbdarstellung beinhalten (z. B. entweder ein einzelner Wert oder eine Serie von Werten, die verschiedene Farben darstellen).
  • Anhang I ist ein Objektcodelisting eines Programms, um viele der Funktionen, die hier beschrieben wurden, auszuführen. Das Programm ist auf jedem Intel X86 basierten Personalcomputersystem unter MS-DOS lauffähig.
  • Es ist entsprechend beabsichtigt, dass alle Gegenstände, die in der oberen Beschreibung enthalten sind oder in den beigefügten Zeichnungen gezeigt werden, eher als Veranschaulichung als in einer begrenzenden Weise interpretiert werden, die Erfindung wird durch die angehängten Ansprüche definiert.

Claims (15)

  1. Eventaufzeichnendes digitales Kamerasystem, umfassend ein optisches Bilderzeugungselement (15) zum Erzeugen eines Lichtbildes von einem Sichtfeld, ein Bilderfassungselement (20) zum Erzeugen eines digitalen Einzelbildes von dem Lichtbild und Zeitsteuermittel (T2) in dem genannten Kamerasystem zum Erzeugen von Zeitsignalen in abstimmbaren diskreten Raten, dadurch gekennzeichnet, dass das genannte eventaufzeichnende digitale Kamerasystem ferner Mittel umfasst, die auf eine Kommunikation mit einer Präzisionszeitquelle (14) anspricht, um die genannte Rate so auszuwählen, dass zunächst das Zeitsteuermittel (T2) auf die Präzisionszeitquelle (14) synchronisiert und die Synchronisation nachfolgend gehalten wird, wobei die genannte digitale Kamera ferner Zeitverarbeitungsmittel (32) aufweist, um von dem genannten Kamerasystem erzeugte Einzelbilder mit einer von dem genannten Zeitsteuermittel (T2) erzeugten Zeit zu markieren.
  2. System nach Anspruch 1, bei dem das Bilderfassungselement (20) ein Zeilensensor ist.
  3. System nach Anspruch 1, wobei das Mittel, das auf eine Kommunikation mit der genannten Präzisionszeitquelle (14) anspricht, Mittel aufweist, um eine gewählte Rate zunächst zu synchronisieren und nachfolgend zu halten, bis ein Komparator es für notwendig erachtet, den Takt zu beschleunigen oder zu verlangsamen, um die Synchronisation des Zeitsteuermittels (T2) mit der Präzisionszeitquelle (14) zu halten.
  4. System nach Anspruch 1 oder Anspruch 2, wobei das Mittel, das auf eine Kommunikation mit der genannten Präzisionszeitquelle (14) anspricht, Mittel aufweist, um die genannte Rate periodisch zu prüfen und nachfolgend zu variieren, mit der das genannte Zeitsteuermittel (T2) arbeitet, um es mit der Präzisionszeitquelle (14) synchron zu halten, und wobei das Mittel (32) zum Markieren von Einzelbildern so gestaltet ist, dass es Einzelbilder mit ihrer Erzeugungszeit gemäß Ermittlung durch das genannte Zeitsteuermittel (T2) markiert.
  5. System nach Anspruch 4, wobei das genannte Erfassungselement (20) ein Zeilensensor ist, der Einzelbilder mit einer Rate von mehr als hundert Einzelbildern pro Sekunde erzeugt und der genannte abstimmbare Zeitgeber (T2) auf die genannte Präzisionszeitquelle (14) phasengerastet ist, um eine Zeitsteuergenauigkeit von gleich oder höher als 10–3 sec zu halten.
  6. System nach Anspruch 1, bei dem das genannte eventaufzeichnende digitale Kamerasystem eine erste digitale Kamera (12) umfasst, die das genannte optische Bilderzeugungselement und das genannte Bilderfassungselement beinhaltet, wobei die genannte erste digitale Kamera (12) eine erste Folge von digitalen Einzelbildern erzeugt, wobei jedes Einzelbild der genannten ersten Sequenz eine erste Ansicht repräsentiert, die von der genannten ersten digitalen Kamera in einem ersten Augenblick erfasst und auf eine erste Array von Detektorelementen (20) abgebildet wird, wobei das genannte eventaufzeichnende digitale Kamerasystem ferner Folgendes umfasst: eine zweite digitale Kamera (12), die eine zweite Folge von digitalen Einzelbildern erzeugt, wobei jedes Einzelbild der genannten zweiten Folge eine zweite Ansicht repräsentiert, die von der genannten zweiten digitalen Kamera in einem zweiten Augenblick erfasst und auf eine zweite Array von Detektorelementen (20) abgebildet wird, wobei das genannte Zeitsteuermittel (T2) ein abstimmbarer Zeitgeber in der genannten ersten digitalen Kamera (12) ist, wobei der genannte abstimmbare Zeitgeber in einem schnelleren Modus und/oder in einem langsameren Modus arbeiten kann, und ein Zeitverarbeitungsmittel, das Einzelbilder der genannten ersten Folge mit einer Zeitreferenz markiert, die für den genannten ersten Augenblick gemäß Ermittlung durch den abstimmbaren Zeitgeber repräsentativ ist, und der genannte Präzisionszeitgeber (14) mit der genannten zweiten digitalen Kamera assoziiert ist und der genannte Präzisionszeitgeber ein Zeitverarbeitungsmittel beinhaltet, das Einzelbilder der genannten zweiten Folge von digitalen Einzelbildern mit einer Zeitreferenz markiert, die den genannten zweiten Zeitpunkt angibt, und Modusauswahlmittel zum Zugreifen auf den Präzisionszeitgeber(14) und zum Auswählen eines Modus mit einer Geschwindigkeit, um den genannten abstimmbaren Zeitgeber mit dem genannten Präzisionszeitgeber (14) synchron zu halten, so dass die genannte erste und die genannte zweite Folge von digitalen Einzelbildern mit einer gemeinsamen Zeitreferenz markiert werden und wobei vorzugsweise der genannte Präzisionszeitgeber (14) in der genannten zweiten digitalen Kamera (12) ist.
  7. System nach Anspruch 6, wobei der genannte abstimmbare Zeitgeber (T2) einen Prescaler mit verschiedenen Teilern zum Bereitstellen verschiedener Frequenzbasen beinhaltet, wobei die verschiedenen Frequenzbasen Betriebsarten mit unterschiedlicher Geschwindigkeit ermitteln.
  8. System nach einem der Ansprüche 6–7, wobei die genannte erste Array von Detektorelementen (20) und/oder die genannte zweite Array von Detektorelementen (20) ein Zeilensensor ist.
  9. System nach einem der Ansprüche 6–8, wobei die genannte erste digitale Kamera (12) und/oder die genannte zweite digitale Kamera (12) durch ein Koaxialkabel (28) mit der genannten Präzisionszeitquelle verbunden ist/sind, wobei das Kabel (28) vorzugsweise die genannte erste digitale Kamera (12) und/oder die genannte zweite digitale Kamera (12) mit Strom speist.
  10. System nach Anspruch 2, wobei der genannte Zeilensensor (20) die Aufgabe hat, einen festen Zeilenabschnitt des abgebildeten Sichtfeldes in elektrische Signale umzuwandeln, die für eine Zeile von Pixeln des Bildes des genannten Feldes re präsentativ sind, wobei das genannte digitale Einzelbild die Zeile von Pixeln umfasst, die für den genannten festen Teil zu einem Zeitpunkt repräsentativ sind, so dass jedes nachfolgende Einzelbild eine andere Zeile von Pixeln zu einem nachfolgenden Zeitpunkt ist, wobei das genannte System ferner Folgendes umfasst: Schaltungsmittel (22) zum Verarbeiten der genannten elektrischen Signale zum Bilden eines digitalen Ausgangsstroms, der digitalisierte Pixelwerte einer Folge von Einzelbildern mit einer hohen Abtastrate enthält, einen Puffer (30) zum Speichern des genannten digitalen Ausgangsstroms vor der Übertragung, und Kompressionsmittel (120) zum Bewirken einer einzelbildweisen Kompression von Daten in dem genannten Puffer, um ihre Bandbreite vor ihrer Übertragung zu reduzieren, so dass der Puffer (30) komprimierte Daten enthält, die die genannte Folge von Pixelzeilen repräsentieren.
  11. Kamera nach Anspruch 10, ferner umfassend Auswahlmittel (120a), die auf den Inhalt des Puffers (30) zum Auswählen eines Kompressionsmodus ansprechen, wobei das genannte Auswahlmittel (120a) einen ersten Kompressionsmodus wählt, wenn der genannte Puffer (30) relativ leer ist, und einen zweiten Kompressionsmodus wählt, wenn der genannte Puffer (30) relativ voll ist, wobei der genannte zweite Modus mehr komprimiert als der genannte erste Modus.
  12. Kamera nach Anspruch 11, wobei einer der genannten Kompressionsmodi eine zeilenweise Differenzierkompression beinhaltet.
  13. Kamera nach Anspruch 11, wobei das genannte Kompressionsmittel (120) Rauschbandquantifizierungsmittel zum Komprimieren von zwei digitalisierten Pixeln beinhaltet, die sich nur durch einen Schwellenrauschbetrag zu einem einzigen komprimierten Wert unterscheiden.
  14. Kamera nach einem der Ansprüche 11–13, wobei der genannte Kompressionsmodus eine prädiktive einzelbildweise Codierung beinhaltet.
  15. Kamera nach einem der Ansprüche 11–14, wobei die genannten Pixelwerte Farbwerte beinhalten und der genannte Kompressionsmodus Werte für jede Farbe separat komprimiert.
DE69532956T 1994-06-28 1995-06-28 Vorrichtung zur erzeugung einer szene aus linienobjekten Expired - Lifetime DE69532956T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/265,063 US5552824A (en) 1993-02-18 1994-06-28 Line object scene generation apparatus
US265063 1994-06-28
PCT/US1995/008359 WO1996001022A1 (en) 1994-06-28 1995-06-28 Line object scene generation apparatus

Publications (2)

Publication Number Publication Date
DE69532956D1 DE69532956D1 (de) 2004-06-03
DE69532956T2 true DE69532956T2 (de) 2005-06-23

Family

ID=23008803

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69532956T Expired - Lifetime DE69532956T2 (de) 1994-06-28 1995-06-28 Vorrichtung zur erzeugung einer szene aus linienobjekten

Country Status (10)

Country Link
US (1) US5552824A (de)
EP (1) EP0768005B1 (de)
JP (2) JP3821168B2 (de)
AT (1) ATE265785T1 (de)
AU (1) AU698672B2 (de)
CA (1) CA2193740C (de)
DE (1) DE69532956T2 (de)
ES (1) ES2220934T3 (de)
NZ (1) NZ290014A (de)
WO (1) WO1996001022A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009007639A1 (de) * 2009-02-05 2010-08-19 Kurt Wallerstorfer Vorrichtung zur Bildaufzeichnung eines Sportlers auf einer Rennstrecke

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6542183B1 (en) * 1995-06-28 2003-04-01 Lynx Systems Developers, Inc. Event recording apparatus
US6404930B2 (en) * 1995-04-07 2002-06-11 Hitachi, Ltd. Signal processing equipment
JP2888186B2 (ja) * 1996-02-19 1999-05-10 富士ゼロックス株式会社 画像符号化装置および画像復号装置
IT1286924B1 (it) * 1996-09-18 1998-07-17 Raffaele Conte Apparecchiatura per la registrazione di eventi casuali relativi a mezzi mobili
JP3791635B2 (ja) * 1996-10-22 2006-06-28 富士写真フイルム株式会社 画像再生方法、画像再生装置、画像処理方法および画像処理装置
JPH10228365A (ja) * 1997-02-14 1998-08-25 Canon Inc 印刷装置、印刷システム、及び、印刷方法
US6195090B1 (en) 1997-02-28 2001-02-27 Riggins, Iii A. Stephen Interactive sporting-event monitoring system
US6335742B1 (en) * 1997-07-24 2002-01-01 Ricoh Company, Ltd. Apparatus for file management and manipulation using graphical displays and textual descriptions
GB9716343D0 (en) * 1997-08-02 1997-10-08 Rotacon Plc Novel action replay binoculars
US6331412B1 (en) 1998-01-29 2001-12-18 University Of Ottawa Methods and compounds for modulating male fertility
WO1999048289A1 (fr) * 1998-03-16 1999-09-23 Seiko Epson Corporation Systeme d'impression d'images photographiques, imprimante d'images photographiques, support d'information lisible par ordinateur contenant un programme d'impression d'images photographiques
US6545705B1 (en) * 1998-04-10 2003-04-08 Lynx System Developers, Inc. Camera with object recognition/data output
US6456745B1 (en) * 1998-09-16 2002-09-24 Push Entertaiment Inc. Method and apparatus for re-sizing and zooming images by operating directly on their digital transforms
US6452610B1 (en) * 1998-12-16 2002-09-17 Intel Corporation Method and apparatus for displaying graphics based on frame selection indicators
JP3433125B2 (ja) * 1999-01-27 2003-08-04 三洋電機株式会社 動画像再生装置
US7369161B2 (en) * 1999-06-08 2008-05-06 Lightsurf Technologies, Inc. Digital camera device providing improved methodology for rapidly taking successive pictures
US7372485B1 (en) 1999-06-08 2008-05-13 Lightsurf Technologies, Inc. Digital camera device and methodology for distributed processing and wireless transmission of digital images
US8212893B2 (en) 1999-06-08 2012-07-03 Verisign, Inc. Digital camera device and methodology for distributed processing and wireless transmission of digital images
US6985875B1 (en) * 1999-11-05 2006-01-10 Wolf Peter H Process for providing event photographs for inspection, selection and distribution via a computer network
US7103357B2 (en) * 1999-11-05 2006-09-05 Lightsurf Technologies, Inc. Media spooler system and methodology providing efficient transmission of media content from wireless devices
US7847833B2 (en) * 2001-02-07 2010-12-07 Verisign, Inc. Digital camera device providing improved methodology for rapidly taking successive pictures
WO2001056010A1 (en) 2000-01-26 2001-08-02 New York University Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data
GB0029880D0 (en) 2000-12-07 2001-01-24 Sony Uk Ltd Video and audio information processing
JP3787498B2 (ja) * 2001-02-13 2006-06-21 キヤノン株式会社 撮像装置及び撮像システム
JP2002271797A (ja) * 2001-03-08 2002-09-20 Matsushita Electric Ind Co Ltd 画像符号化装置、及び画像符号化方法,フレームレート変換装置
US6710061B2 (en) 2001-03-09 2004-03-23 Ortho-Mcneil Pharamceutical, Inc. Aminopyrrolidine sulfonamides as serine protease inhibitors
US7305354B2 (en) 2001-03-20 2007-12-04 Lightsurf,Technologies, Inc. Media asset management system
US7724281B2 (en) 2002-02-04 2010-05-25 Syniverse Icx Corporation Device facilitating efficient transfer of digital content from media capture device
US7051040B2 (en) 2002-07-23 2006-05-23 Lightsurf Technologies, Inc. Imaging system providing dynamic viewport layering
JP4224996B2 (ja) * 2002-07-25 2009-02-18 パナソニック株式会社 撮像装置
US20040036778A1 (en) * 2002-08-22 2004-02-26 Frederic Vernier Slit camera system for generating artistic images of moving objects
DE10336447A1 (de) * 2003-08-06 2005-03-10 Gerd Hansen Verfahren und Vorrichtung zum Erfassen und Verarbeiten von Daten eines Sportereignisses
US7683940B2 (en) 2003-09-12 2010-03-23 Canon Kabushiki Kaisha Streaming non-continuous video data
US7233393B2 (en) * 2004-08-05 2007-06-19 Applera Corporation Signal noise reduction for imaging in biological analysis
DE10360851A1 (de) * 2003-12-21 2005-09-01 ASTRA Gesellschaft für Asset Management mbH & Co. KG Brieftaubenkonstatiersystem
KR100586883B1 (ko) * 2004-03-04 2006-06-08 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩방법, 프리디코딩방법, 비디오 디코딩방법, 및 이를 위한 장치와, 이미지 필터링방법
EP1689192A3 (de) * 2005-02-04 2011-10-26 Thomson Licensing Verfahren und Vorrichtung zur Datenframescanierung

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3829869A (en) * 1972-12-29 1974-08-13 Specialty Instr Corp Photo finish record system
JPS5244512A (en) * 1975-10-06 1977-04-07 Nippon Telegr & Teleph Corp <Ntt> Between-frame coding equipment
US4179710A (en) * 1976-02-23 1979-12-18 Nippon Electric Co., Ltd. Predictive encoder with a non-linear quantizing characteristic
FR2351457A1 (fr) * 1976-05-12 1977-12-09 Suisse Horlogerie Installation de chronometrage sportif
JPS61107818A (ja) * 1984-10-30 1986-05-26 Nec Corp エントロピ−符号化方式とその装置
US4797751A (en) * 1985-06-19 1989-01-10 Yamaguchi Cinema Corporation Electronic camera apparatus for recording and reproducing moving object images
JPS62140033A (ja) * 1985-12-13 1987-06-23 Canon Inc 測光装置
US4754342A (en) * 1986-04-11 1988-06-28 Cmx Corporation Video editing system having virtual memory
US4799053A (en) * 1986-04-28 1989-01-17 Texas Instruments Incorporated Color palette having multiplexed color look up table loading
US4825390A (en) * 1986-04-28 1989-04-25 Texas Instruments, Inc. Color palette having repeat color data
US4679094A (en) * 1986-10-14 1987-07-07 The Associated Press Method for compression and transmission of video information
US4742971A (en) * 1986-11-24 1988-05-10 Hub Winch, Inc. Attachment winch for vehicle wheels
DE3716987C1 (de) * 1987-05-21 1988-04-28 Augustin Imhof Verfahren und Vorrichtung zur Bestimmung der Zeit zwischen Start und Ziel von Wettkaempfern od.dgl.
US4920429A (en) * 1989-01-24 1990-04-24 International Business Machines Exposure compensation for a line scan camera
US5008739A (en) * 1989-02-13 1991-04-16 Eastman Kodak Company Real-time digital processor for producing full resolution color signals from a multi-color image sensor
US5016107A (en) * 1989-05-09 1991-05-14 Eastman Kodak Company Electronic still camera utilizing image compression and digital storage
FR2648594B1 (fr) * 1989-06-15 1993-03-05 Omega Electronics Sa Appareil pour le chronometrage de courses
DE3937977C1 (de) * 1989-11-15 1990-12-20 Augustin 7619 Steinach De Imhof
US5144425A (en) * 1991-08-26 1992-09-01 General Electric Company Apparatus for hierarchically dividing video signals

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009007639A1 (de) * 2009-02-05 2010-08-19 Kurt Wallerstorfer Vorrichtung zur Bildaufzeichnung eines Sportlers auf einer Rennstrecke
DE102009007639B4 (de) * 2009-02-05 2011-05-26 Kurt Wallerstorfer Vorrichtung zur Bildaufzeichnung eines Sportlers auf einer Rennstrecke

Also Published As

Publication number Publication date
WO1996001022A1 (en) 1996-01-11
US5552824A (en) 1996-09-03
JPH11505676A (ja) 1999-05-21
EP0768005A1 (de) 1997-04-16
AU698672B2 (en) 1998-11-05
ATE265785T1 (de) 2004-05-15
EP0768005A4 (de) 2000-03-15
DE69532956D1 (de) 2004-06-03
NZ290014A (en) 1998-11-25
EP0768005B1 (de) 2004-04-28
CA2193740A1 (en) 1996-01-11
AU3002295A (en) 1996-01-25
JP4164100B2 (ja) 2008-10-08
JP2006311576A (ja) 2006-11-09
ES2220934T3 (es) 2004-12-16
CA2193740C (en) 2000-02-01
JP3821168B2 (ja) 2006-09-13

Similar Documents

Publication Publication Date Title
DE69532956T2 (de) Vorrichtung zur erzeugung einer szene aus linienobjekten
US6542183B1 (en) Event recording apparatus
DE69930986T2 (de) Hochauflösende Kamera
DE602004010363T2 (de) Fernvideoanzeigeverfahren, videoerfassungseinrichtung, verfahren dafür und programm dafür
DE19982811B4 (de) Verfahren und Einrichtung zur Standbildaufnahme während Videolaufbildoperationen einer Angekoppelten Digitalkamera
DE60306737T2 (de) Verfahren und system zum bestimmen eines bereichs von bedeutung in einem zu archivierenden bild
DE69931973T2 (de) Digitale Kamera mit Möglichkeit zur Bildbearbeitung
DE102006001904B4 (de) Verfahren und Gerät für das automatische Anpassen von Überwachungsbildfeldern basierend auf Bildänderung
US5657077A (en) Event recording system with digital line camera
DE69819613T2 (de) Videorastererfassung und Vorschau
DE60131840T2 (de) System zum automatischen testen von überwachungskameras
DE4041312C2 (de) Elektronische Kameravorrichtung zum Liefern eines Bildsignales mit einem weiten Dynamikbereich
DE69909635T2 (de) Gerät und verfahren zur elektronischen bildverbesserung
DE3919464C2 (de) Vorrichtung zum Scharfeinstellen einer Kamera
DE10323236A1 (de) Bilderzeugungsvorrichtung
DE69732089T2 (de) Vorrichtung und verfahren zur zeitlichen und räumlichen integration und verwaltung einer vielzahl von videos sowie speichermedium zur speicherung eines programms dafür
DE19825303A1 (de) System für virtuelle Szenen mit mehreren Kameras unter Verwendung von Standbildspeicherrahmenpuffern für jede Kamera
DE19720200A1 (de) Bildaufnahmevorrichtung
DE69927239T2 (de) System und verfahren zur verarbeitung von bildern
DE102008051913A1 (de) Hochgeschwindigkeits-Fotovorrichtung, Verfahren zum Steuern einer Hochgeschwindigkeits-Fotovorrichtung und Computerprogramm
EP0257379A2 (de) Verfahren zum Aufnehmen und Speichern von Bildern in schneller Folge
DE69933810T2 (de) Elektronische Kamera mit Bildvorschaufunktion
DE69934563T2 (de) Digitale Kamera und Bildverarbeitungsverfahren
AU712182B2 (en) Event recording camera system
CA2279586C (en) Line object scene generation apparatus

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: BOCKHORNI & KOLLEGEN, 80687 MUENCHEN