WO2001093188A9 - Procede de traitement de document, support sur lequel est enregistre un programme de traitement de document et processeur de document - Google Patents

Procede de traitement de document, support sur lequel est enregistre un programme de traitement de document et processeur de document

Info

Publication number
WO2001093188A9
WO2001093188A9 PCT/JP2001/004673 JP0104673W WO0193188A9 WO 2001093188 A9 WO2001093188 A9 WO 2001093188A9 JP 0104673 W JP0104673 W JP 0104673W WO 0193188 A9 WO0193188 A9 WO 0193188A9
Authority
WO
WIPO (PCT)
Prior art keywords
character
input
frame
data
frame data
Prior art date
Application number
PCT/JP2001/004673
Other languages
English (en)
French (fr)
Other versions
WO2001093188A1 (fr
Inventor
Masaki Nakagawa
Original Assignee
Japan Science & Tech Corp
Masaki Nakagawa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science & Tech Corp, Masaki Nakagawa filed Critical Japan Science & Tech Corp
Priority to EP01936835A priority Critical patent/EP1310904A4/en
Priority to US10/276,329 priority patent/US7221795B2/en
Publication of WO2001093188A1 publication Critical patent/WO2001093188A1/ja
Publication of WO2001093188A9 publication Critical patent/WO2001093188A9/ja

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/3413Details of control of colour illumination sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/155Removing patterns interfering with the pattern to be recognised, such as ruled lines or underlines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0235Field-sequential colour display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0247Flicker reduction other than flicker reduction circuits used for single beam cathode-ray tubes

Definitions

  • Form processing method recording medium recording form processing program, form processing program, and form processing device
  • the present invention relates to a form processing method, a recording medium recording a form processing program, a form processing program, and a form processing device.
  • INDUSTRIAL APPLICABILITY The present invention is particularly applicable to the field of information equipment used in offices and the like, and a form processing method and a form that can easily recognize characters and symbols (hereinafter collectively referred to as letters) written on the form.
  • the present invention relates to a recording medium on which a processing program is recorded and a form processing apparatus.
  • the form refers to a two-dimensional shape or a three-dimensional shape such as a sheet formed of paper, a polymer material, or the like, having a surface on which an entry frame for entering characters is printed or described. Things shall be generically referred to.
  • Fig. 37 shows the configuration of a conventional form processing device (see Japanese Patent Publication No. 63-187876).
  • a text box is printed with a low density, and the text is written in the box.
  • the photoelectric conversion means 2 photoelectrically converts the area of one line of the form 101 with the density of the character entry frame low and the density of the character high.
  • the density of each pixel in the area for one row obtained as a result of the photoelectric conversion is stored in the storage means 103.
  • the contents stored in the storage means 103 are sent to the character entry frame position detection means 104.
  • the character entry frame position detecting means 104 counts the number of pixels having a predetermined density in the row and column directions, respectively.
  • the character entry frame position detecting means 104 regards that there is a character entry frame at this position, and cuts out the character entry frame position information and extracts the character.
  • the character cutout means 105 cuts out characters using the character entry frame position information and the storage content sent from the storage means 103.
  • the entry frame indicates 1 or 0 indicating white or black in relation to the density and the binarization threshold. In some cases, depending on the binarization threshold, the entry frame disappears, or the entry frame becomes the same as the density of the entered characters. Or, in the past, a high-performance facsimile capable of accurately sending density information was required.
  • the present invention is based on the Instead, a form processing method that outputs a set of small dots (called a dot texture) and erases the dot texture entry frame from a form with such an entry frame to retrieve only the entered characters, a form
  • a processing program a recording medium on which a form processing program is recorded, and a form processing device.
  • Another object of the present invention is to make a form using a black and white printer, since a form can be created using a line formed by a set of dots.
  • Another object of the present invention is to make it possible to input a form using an inexpensive binary image reader, facsimile, scanner, or the like for reading. It is another object of the present invention to eliminate the need for line and character entry position marks, eliminate the need for special document output processing at the time of printing, and facilitate form creation.
  • the form is usually printed with the heading of the item, such as above or to the left of the frame where the item is to be entered.
  • headlines are separated from written characters by printing the headings in a dropout color like a frame, or by separating them with ambiguous information such as smaller than written characters.
  • an object of the present invention is to print a heading character with dot texture in the same manner as a frame, so that the heading character is dropped in exactly the same manner as dropping a frame from an image.
  • the present invention provides a method of separating a handwritten character pattern portion from an original image, then dropping the portion from the original image in reverse, and performing dilation processing on the remaining image, thereby enabling heading character recognition. Aim.
  • the present invention expresses additional information (version, recognition instruction command, information used for authenticity determination, etc.) in the dot size, pitch, and number, thereby embedding information such as instructions to the dot texture. Aim.
  • dots can be easily removed by shrinking or using conventional image processing technology such as a technology for measuring the number of connected black components (the number of connected black pixels surrounded by white pixels).
  • image processing technology such as a technology for measuring the number of connected black components (the number of connected black pixels surrounded by white pixels).
  • a form input step in which a form is input and a character frame data including a filled-in frame composed of a group of dots and filled-in characters is created;
  • An entry frame detection step for detecting entry frame position data indicating a position where a character is to be entered, based on the character box data created in the form input step;
  • Character detection means for detecting character data of the entered character based on the character frame data created by the form input means
  • Entry frame detection means for detecting entry frame position data indicating a position where a character is to be entered, based on the character frame data created by the form input means;
  • Recognizing means for recognizing each entered character based on each character pattern cut out by the associating means
  • Headline character composed of a group of dots and entry composed of a group of dots
  • a form processing method including: a form processing program for causing a computer to execute these steps; and a computer-readable recording medium storing the form processing program.
  • An input box composed of a group of dots, in which information is embedded by changing the group of dots in a non-uniform manner, and inputting character frame data including the entered characters;
  • FIG. 1 is a flowchart illustrating a form processing method according to the present invention.
  • FIG. 2 is a configuration diagram of a form processing apparatus according to a first embodiment of the present invention.
  • Figure 3 is an explanatory diagram related to form processing.
  • Figure 4 is a detailed flowchart of the character detection process.
  • FIG. 5 is an explanatory diagram of a character detection process.
  • FIG. 6 is a detailed flowchart of the entry frame detection process.
  • FIG. 7 is an explanatory diagram of the entry frame detection process.
  • Figure 8 is a detailed flowchart of the association process.
  • FIG. 9 is an explanatory diagram of the association processing.
  • FIG. 10 is an explanatory diagram showing an example in which writing characters can be separated even if they overlap with each other in the present invention.
  • FIG. 11 is a flowchart of a process according to the second embodiment for separating and recognizing a heading character.
  • FIG. 12 is a configuration diagram of a form processing device according to a second embodiment of the present invention.
  • Figure 13 is an illustration of an example of filling in a dot texture form.
  • FIG. 14 is an explanatory diagram of extraction of a handwritten character pattern.
  • Fig. 15 is an explanatory diagram of taking out the heading and the entry frame.
  • FIG. 16 is a flowchart of processing in a case where the second embodiment of separation and recognition of a heading character is combined with the first embodiment.
  • Figure 17 is a flowchart of dot removal using Fourier transform.
  • Figure 18 is an explanatory diagram of the original image.
  • FIG. 19 is an explanatory diagram when a discrete Fourier transform is performed on an original image.
  • FIG. 20 is an explanatory diagram when high-frequency components are removed.
  • FIG. 21 is an explanatory diagram when the inverse Fourier transform is performed.
  • Fig. 2 2 is an explanatory diagram when the threshold is determined and binarized
  • Figure 23 is a flowchart of dot removal using the Walsh-Rydamard transform.
  • Figure 24 is an explanatory diagram of the original image.
  • FIG. 25 is an explanatory diagram when the Walsh-Hadamard transform is performed on the original image.
  • Figure 26 is an explanatory diagram when high-frequency components (and some low-frequency components) have been removed.
  • FIG. 27 is an explanatory diagram when the inverse Walsh-Hadamard transform is executed.
  • Figure 28 is an explanatory diagram when the threshold is determined and binarized.
  • FIG. 29 is an explanatory diagram in the case where the low frequency is not cut off in the process of step S403.
  • FIG. 31 is a configuration diagram of a form processing apparatus according to a third embodiment of the present invention.
  • Figure 32 shows an example of a dot texture that forms this character frame.
  • Figure 33 shows an example of adding information by changing the dot size.
  • Figure 34 shows an example of adding information depending on the presence or absence of a dot.
  • Figure 35 shows an example of embedding additional information by changing the dot pitch.
  • FIG. 36 shows a flowchart of processing in a case where the third embodiment for embedding additional information and the first embodiment are combined.
  • FIG. 37 shows a configuration diagram of a conventional form processing apparatus.
  • FIG. 1 shows a flowchart of a form processing method according to the first embodiment of the present invention.
  • FIG. 2 shows a configuration diagram of the form processing apparatus according to the first embodiment of the present invention.
  • FIG. 3 shows an explanatory diagram relating to the form processing.
  • This form processing apparatus includes a processing unit 11, an input unit 12, a storage unit 13, and an output unit 14.
  • the processing unit 11 includes entry frame detecting means 4, character detecting means 5, associating means 6, and character recognizing means 7.
  • the form input unit 12 includes a photoelectric conversion unit 2.
  • the storage unit 13 includes a character frame data storage unit 3 and a result storage unit 8.
  • the form input means 1 2 reads the form 1 to be recognized by the photoelectric conversion means 2 and obtains character frame data 11 1 including characters and entry boxes as electronic data (form input processing S 2) .
  • the character frame data storage means 3 stores the character frame data 11 read by the photoelectric conversion means 2 (character frame data storage processing S 3).
  • the character frame data 11 is detected by the frame detection means 4 as frame position data 13c indicating a position where a character is to be written (entry frame detection processing S4).
  • the character data 12 b is detected by the character detection means 5 (character detection processing S 5).
  • the character detection process S5 and the entry frame detection process S4 have been described as being processed in parallel, but they may be processed sequentially.
  • the associating means 6 cuts out the character data 12b of the entered characters and the input frame position data 13c, and the character pattern entered in each of the input frames (association processing S6). As a result, the character pattern is recognized by the character recognition means 7 (character recognition processing S7), and the recognition result and the entry frame are associated with each other and stored in the result storage means 8 (result storage processing S8). At or after the result storage process S8, the output unit 14 may output or display a recognition result or data relating to the recognition result to another device.
  • FIG. 4 shows a detailed flowchart of the character detection processing.
  • FIG. 5 is an explanatory diagram of the character detection process.
  • the contraction process is, for example, a process of contracting the periphery (edge) of a connected portion where black pixels are connected.
  • a contracted image is obtained by extracting an edge of an input image and changing the edge to a white pixel.
  • An edge is an extraction of a black pixel adjacent to a white pixel. Further, by extracting and removing double, triple, etc. edges, further contraction processing can be performed. Since the entry frame is made up of dots, this shrinking process can make the dots smaller, while the written characters are not significantly affected.
  • minute points are removed from the contraction processing result 12a (S55).
  • a connected component that is a portion where black pixels are connected is obtained, the number of black pixels of each connected component is obtained, and a connected component that is equal to or less than a predetermined threshold value or smaller than the threshold value is determined. Remove the minute. Next, by performing dilation on the remaining pattern in reverse
  • character data 12b of the entered character can be obtained.
  • expansion processing for example, an expanded image is obtained by extracting an edge of an input image and changing a white pixel adjacent to a black pixel at the edge to a black pixel.
  • FIG. 6 shows a detailed flowchart of the entry frame detection processing.
  • FIG. 7 shows an explanatory diagram of the entry frame detection process.
  • the entry frame detection means 4 inputs the character frame data 11 (S4 1). Even if the vertical marginal distribution of the character frame data 11 is simply taken, there is an effect of the entered character, and the entry frame position cannot be accurately detected. Then, in order to remove the influence of the characters entered in the entry frame as much as possible, a process of removing the character pattern from the character frame data 11 is executed, and the entry frame data 13a is created (S43). 0 This process is performed by setting the pixel of the character frame data corresponding to the position of each black pixel of the character data 12b detected in the character detection process to a white pixel. Next, marginal distribution 13b is obtained by integrating or accumulating the entry frame data 13a in the vertical direction (S45). The entry frame position data 13c can be obtained from the peripheral distribution 13b (S47). At this time, for example, a delimiter of a fixed period correlated with the peak of the peripheral distribution 13b may be obtained.
  • Another method to reduce the influence of characters entered in the entry frame is to first perform edge detection on the entire character frame data 11 and then take the vertical distribution around it to detect the entry frame position. There is also a way to do. By doing so, the process of removing the character pattern can be omitted.
  • the dot detection generates a large number of edges (the number of black pixels that make up the edge) by edge detection, and on the other hand, the written characters generate only the edges corresponding to the outline, so the effect can be reduced.
  • marginal distribution 13b is obtained by integrating or accumulating the entry frame data 13a in the row direction (S45).
  • the entry frame position data 13c can be obtained from the peripheral distribution 13 (S47). At this time, for example, a fixed period break correlated with the peak of the peripheral distribution 13b may be obtained.
  • FIG. 8 shows a detailed flowchart of the association processing.
  • FIG. 9 shows an explanatory diagram of the association process.
  • the associating means 6 includes the entry frame detecting process S 4
  • the input frame position data 13c obtained in the above and the character data 12b obtained in the character detection processing S5 are input, and are associated with each other (S61).
  • character patterns 14a to 14c are cut out for each character (S63).
  • character patterns 14a to 14c can be cut out at the same cycle or length. Character recognition is performed based on the character patterns 14a to 14c for each character.
  • the dot texture is applied to the entry frame as in the present invention, even if the writing character overlaps the entry frame, it can be easily separated by the above-described method.
  • FIG. 10 is an explanatory diagram showing an example in which writing characters can be separated even if they overlap with each other in the present invention.
  • the headline of the item is printed on the form above or to the left of the frame where the item is to be entered.
  • the headlines were conventionally printed out with a dropout color like a frame and separated, or they were separated with ambiguous information such as smaller than the written characters.
  • the headline characters by printing the headline characters with dot texture in the same manner as the frame, they can be dropped in exactly the same manner as dropping the frame from the image.
  • the part After separating the handwritten character pattern part from the image, the part is dropped from the original image, and the remaining image is subjected to thickening processing (expansion processing), so that headline characters can be recognized.
  • FIG. 11 shows a flowchart of a basic second embodiment of processing for separating and recognizing a heading character.
  • FIG. 12 shows a configuration diagram of a form processing apparatus according to a second embodiment of the present invention.
  • This form processing device has a processing unit 11, an input unit 12, A storage unit 13 and an output unit 14 are provided.
  • the processing unit 11 includes an entry frame detection unit 4, a character detection unit 5, a correspondence unit 6, a character recognition unit 7, and a handwritten character removal unit 21.
  • the form input unit 12 includes a photoelectric conversion unit 2.
  • the storage unit 13 includes character frame data storage means 3 and result storage means 8.
  • the configuration of each means is the same as that of the above-described embodiment, except for the contents described specifically, such as the heading character recognition means 22.
  • Fig. 13 shows an explanatory diagram of an example of entry into a dot texture form.
  • the processing unit 11 inputs the character frame data 2 11 1 as the original image (S 20 0 l) o
  • the input unit executes the input processing as follows can do.
  • the form input means 12 reads the form to be recognized by the photoelectric conversion means 2 and obtains character frame data 2 11 including characters and entry boxes as electronic data (FIG. 1, form input processing S 2).
  • the character frame data storage means 3 stores the character frame data 211 read by the photoelectric conversion means 2 (see FIG. 1 character frame data storage processing S3).
  • the processing unit 11 inputs the character frame data 2 11 from the character frame data storage unit 3 of the storage unit 13.
  • the processing unit 11 performs a form input process S 2 and a character frame data storage process.
  • the character frame data 2 1 1 may be directly input from the character frame data storage means 3 without executing S3.
  • FIG. 14 shows an explanatory diagram for extracting a handwritten character pattern.
  • the character detection means 5 performs a character detection process on the handwritten character pattern (S203). More specifically, the character detecting means 5 includes a detailed flowchart of the character detecting process shown in FIG. 4 described above, an explanatory diagram of the character detecting process shown in FIG. 5 described above, and descriptions thereof. Perform the character detection process as described in the section. As a result, character data 211 of the character entered by the character detecting means 5 can be obtained.
  • the handwritten pattern removing means 21 of the processing unit 11 removes the character pattern 2 1 2 detected in the character detection processing S 203 from the character frame data 2 1 1 based on the input character frame data 2 1 1.
  • entry frame data including a heading (S205).
  • Figure 15 shows an explanatory diagram for taking out the headline and the entry frame.
  • the handwriting pattern removing means 21 applies dot texture to the obtained entry frame data.
  • the expansion processing of each dot is performed to the extent that is connected (S207). As a result, the heading and the entry frame as shown in the figure are taken out.
  • the character recognition means 7 is retrieved heading (or headline entry frame) with respect to, that by the the performed (S 2 0 9) 0 character recognition means 7 minute point recognition headline character noise If it is weak, the minute point removal (S55) described with reference to FIG. 4 may be performed before or after the expansion processing in the handwritten pattern removing means.
  • FIG. 16 shows a flowchart of a process in a case where the second embodiment for separating and recognizing a heading character is combined with the first embodiment.
  • a form input process S1 and a character frame data storage process S2 are executed.
  • the entry frame detection processing S4, character detection processing S5, and association processing S6 are as described above.
  • the handwritten pattern removing means 21 reads out the character frame data accumulated by the character frame data accumulation processing S3 from the character frame data accumulation means 3 and inputs it as an original image (S21). 1).
  • the handwriting pattern removing unit 21 removes the handwritten character pattern as described above using the character data obtained by the character detecting process S5 (character detecting unit 5) (S215) .
  • the handwritten pattern removing means 21 performs dilation processing on the entry frame data including the obtained heading (S2177).
  • the handwritten pattern removing means 21 executes the processing for separating the heading characters in this manner. Further, in the character recognition process S7, in addition to the handwritten characters obtained in the associating process S6, the character recognition process is also performed for the headline character separated from step S2117. Further, in the character recognition processing means 7, the recognized handwritten characters and heading characters are stored in the result storage means 8. If the character recognition means 7 is vulnerable to noise due to minute points, the minute points removal (S55) described in FIG. 4 may be performed before or after the expansion processing in the handwritten pattern removing means.
  • dot textures can be It is also possible to easily separate the editing symbols and the like for them and apply the corrections that the editing symbols mean.
  • a dot texture is composed of higher frequency components than a handwritten pattern. Therefore, Fourier transform is applied to the input character frame data (image) to convert it to frequency components, where high-frequency components are removed, and inverse transform and binarization are performed to remove dots. There is a way to do it.
  • FIG. 17 shows a flowchart of dot removal using the Fourier transform.
  • the character detecting means 5 reads the character frame data which is the original image data stored in the character frame data storing means 3 (S301).
  • the form input processing S2 and the character frame data storage processing S3 store the character frame data in the character frame data storage means 3, and the character detection means 5 inputs the character frame data. You may do it.
  • Figure 18 shows the illustration of the original image.
  • the character detecting means 5 executes a discrete Fourier transform on the read original image (S302).
  • the original image data includes, for example, data representing grayscale or black and white when an image is scanned for a plurality of scans.
  • the processing here is to perform a discrete Fourier transform of the change in grayscale or black and white.
  • Figure 19 shows an illustration when the discrete Fourier transform is performed on the original image. In this figure, the center is the origin, the vertical axis is the vertical frequency component, and the horizontal axis is the horizontal frequency component.
  • FIG. 20 shows an explanatory diagram for removing high-frequency components.
  • the center is the origin
  • the vertical axis is the vertical frequency component
  • the horizontal axis is the horizontal frequency component.
  • the character detecting means 5 executes an inverse discrete Fourier transform (S304).
  • FIG. 21 shows an explanatory diagram when the inverse discrete Fourier transform is executed.
  • the character detection means 5 determines a threshold value for the blurred image obtained in step S304 and performs a binarization process. Perform (S305).
  • Fig. 22 shows an explanatory diagram when the threshold is determined and binarized.
  • the Orche-Hadamard transform decomposes into square-wave frequency components.
  • the original image is a binary image, this can represent the original image more faithfully even in the finite frequency range.
  • a method of transforming into a rectangular wave frequency component by the Walsh-Hadamard transform, removing the high-frequency component therefrom, inversely transforming it, and binarizing it to remove the dot is also used. Conceivable.
  • Figure 23 shows a flowchart of dot removal using the Walsh-Hadamard transform.
  • the character detecting means 5 reads the character frame data which is the original image data stored in the character frame data storage means 3 (S401).
  • the form input processing S2 and the character frame data storage processing S3 store the character frame data in the character frame data storage means 3, and the character detection means 5 inputs the character frame data. You may do it.
  • Figure 24 shows an explanatory diagram of the original image.
  • the character detecting means 5 executes Walsh-Hadamard transformation on the read original image (S402).
  • the original image data includes, for example, data representing black and white when an image is scanned for a plurality of scans, and the processing here is to perform a Walsh-Hadamard transformation of the change in black and white.
  • FIG. 25 shows an explanatory diagram when the Walsh-Hadamard transform is performed on the original image. In this figure, the center is the origin, the vertical axis is the vertical frequency component, and the horizontal axis is the horizontal frequency component.
  • the character detecting means 5 executes the removal of the high frequency component (S403). This process blurs the original image. At this time, in some cases, low-frequency components may be removed at least in part.
  • Figure 26 shows an explanatory diagram when high-frequency components (and some low-frequency components) have been removed. In this figure, the center is the origin, the vertical axis represents the vertical frequency component, and the horizontal axis represents the horizontal frequency component.
  • the character detecting means 5 executes the inverse Walsh-Hadamard transform (S404).
  • FIG. 27 is an explanatory diagram when the inverse Walsh-Hadamard transform is executed.
  • the character detection means 5 determines a threshold value for the blurred image obtained in step S404 and performs a binarization process (S405).
  • Figure 28 shows an explanatory diagram when the threshold is determined and binarized.
  • FIG. 29 is an explanatory diagram in the case where the low frequency is not cut off in the process of step S403. That is, it is a binarized character pattern obtained through steps S404 and S405.
  • the Fourier transform and Walsh-Hadamard transform have in common.
  • the processing time can be made shorter by using dedicated hardware that performs Fourier transform and Walsh-Hadamard transform than by contraction, minute point removal, and expansion.
  • FIG. 30 shows a flowchart for embedding information in a dot texture.
  • FIG. 31 shows a configuration diagram of a form processing apparatus according to a third embodiment of the present invention.
  • This form processing device includes a processing unit 11, an input unit 12, a storage unit 13, and an output unit 1. 4 is provided.
  • the processing unit 11 includes an entry frame detection unit 4, a character detection unit 5, a correspondence unit 6, a character recognition unit 7, and an additional information determination unit 23.
  • the form input section 12 includes photoelectric conversion means 2.
  • the storage unit 13 includes a character frame data storage unit 3 and a result storage unit.
  • the processing section 11 inputs character frame data 2 11 as an original image (S501).
  • the input processing can be executed in the same manner as in the above-described embodiment (see step S201).
  • the character detection means 5 performs a character detection process on the handwritten character pattern (S503). Specifically, as in step S203 described above, character data 211 of the character entered by the character detecting means 5 can be obtained.
  • the handwriting pattern removing means 21 of the processing unit 11 removes the character pattern 2 12 detected by the character detection processing S 203 from the character frame data based on the input character frame data, thereby obtaining a heading. Is obtained (S505).
  • the additional information determination means 23 determines the additional information embedded in the dot texture such as the obtained entry frame data in a predetermined format (S507).
  • the additional information determination unit 23 stores the extracted additional information in the storage unit 13 (S509).
  • Fig. 32 shows an example of the dot texture that forms this character frame.
  • Each means is the same as the above-described embodiment, except for the contents described in particular such as the additional information determination means 23.
  • Examples of the method of inserting the additional information include, for example, character type information to be entered such as numbers and kanji, character data types to be entered such as addresses, names and years, or character entry frames. It is appropriate information such as information on handwritten characters and headings. Information can be added to the character entry frame by changing the size, position, etc. of some of the dots in the dot texture shown in the figure. In addition, by embedding this information in a plurality of positions of the character frame, information can be stably taken out even when a part is dirty. Specific examples are shown below.
  • FIG. 33 shows an example in which information is added according to a change in dot size.
  • large Information can be embedded in a part of the character frame by setting the critical dot to 1 and the small dot to 0 (or vice versa).
  • information [1 0 0 1 1 0 1 0] is embedded in all rows.
  • FIG. 34 shows an example in which information is added depending on the presence or absence of a dot. For example, it is possible to embed information in a part of the character frame by setting 1 when there is a dot and 0 when there is no dot. In the example shown in the figure, information [1 0 0 0 1 1 1] is embedded in the line indicated by the arrow.
  • FIG. 35 shows an example in which additional information is embedded by a change in dot pitch.
  • information can be embedded in a part of the character frame by setting the dot pitch to 1 if it is wide and 0 if it is narrow.
  • information [0 1 1 0 1 1 1 0 0 1] is embedded in all rows.
  • the additional information processing means 23 can read the additional information by these predetermined methods based on the dot texture of the entry frame and the like extracted by the entry frame detection means 4 as described above.
  • FIG. 36 shows a flowchart of processing in a case where the third embodiment for embedding additional information and the first embodiment are combined.
  • a form input process S1 and a character frame data storage process S2 are executed.
  • the entry frame detection processing S4, character detection processing S5, and association processing S6 are as described above.
  • the handwritten pattern removing means 21 reads out the character frame data accumulated by the character frame data accumulation processing S3 from the character frame data accumulation means 3 and inputs it as an original image (S31). 1).
  • the handwritten pattern removing unit 21 removes the handwritten character pattern as described above using the character data obtained by the character detecting process S5 (character detecting unit 5) (S315) .
  • the additional information judging means 23 judges the additional information embedded in the dot texture such as the obtained entry frame data (S3 17). Further, the additional information determination means 23 stores the determined additional information in the result storage means 8.
  • the dot frame is not a solid black unless the outline font, JP2001 / 004673
  • a form processing method includes: a computer-readable recording medium storing a form processing program; a program product including the form processing program and capable of being loaded into an internal memory of a computer; It can be provided by a program product or the like stored on a medium.
  • INDUSTRIAL APPLICABILITY According to the present invention, as described above, the entry frame is output with dots instead of color ink or gray color, and the entry frame of dots is erased from the form having such an entry frame and entered. It is possible to provide a form processing method capable of extracting only written characters, a recording medium recording a form processing program, and a form processing apparatus.
  • a form can be created using a line formed by a set of dots, it is possible to create a form with a black and white printer. Further, according to the present invention, it is possible to input a form using a general image reader, FAX, scanner, or the like for reading. Furthermore, according to the present invention, it is possible to eliminate the need for line and character entry position marks, eliminate the need for special document output processing at the time of printing, and facilitate form creation.
  • the present invention by printing the headline characters with dot texture in the same manner as the frame, it is possible to drop the frame in exactly the same manner as dropping the frame from the image. Also, according to the present invention, after separating a handwritten character pattern portion from the original image, the portion is dropped from the original image in reverse, and the remaining image is subjected to a thickening process, thereby enabling recognition of a found character. be able to. Furthermore, according to the present invention, by embedding information such as instructions to dot textures by expressing additional information (eg, information used for authenticity judgment, purge instructions, recognition instructions, etc.) in the size, pitch, and number of dots. Can be.
  • additional information eg, information used for authenticity judgment, purge instructions, recognition instructions, etc.

Description

帳票処理方法、 帳票処理プログラムを記録した記録媒体、 帳票処理プログラム及び帳票処理装置
本発明は、 帳票処理方法、.帳票処理プログラムを記録した記録媒体、 帳票処理 プログラム及び帳票処理装置に係る。 本発明は、 特に、 オフィス等で利用される 情報機器分野に適用可能で、 帳票上に記入された文字や記号 (以下、 文字で総称 する) を簡単に認識することのできる帳票処理方法、 帳票処理プログラム、 帳票 処理プログラムを記録した記録媒体及び帳票処理装置に関する。 なお、 本発明に おいて帳票とは、 文字を記入するための記入枠が印刷又は記載された面を有し、 紙、 高分子材料等で形成されたシート等の 2次元形状、 立体形状のもの等を総称 するものとする。
背景技術 一般に、 帳票処理装置においては、 記入枠に重なって記入された文字の切り出 しが、 技術的に重要である。 記入枠と記入された文字の分離を容易にするために、 色を判別できる読み取り装置を前提に読取り時に削除できるドロップアウトカラ 一で記入枠を印刷したり、 濃淡を判別できる読み取り装置を前提にグレーカラー などを記入枠に利用したりすることが行われてきた。 しカゝし、 読み取り装置のコ スト、 帳票印刷のコスト、 既存の単色帳票の継続利用ニーズなどから、 2値 (多 くの場合、 白と黒) の帳票を認識することがむしろ增加してきている。 このとき、 枠に重なった文字を認識するために枠線からの力すかな溢れを検出してそれを手が 力 りに処理するなどしている。 しかし、 この問題の根本的な解決は容易ではない。 また、 2値のファクシミリを経由した帳票読み取りのエーズもあり、 これらの ファックスを経由しても利用できる方法として、 白黒の帳票にボールペンや鉛筆 で手書きされた帳票を読み取る方式の改善ニーズは大きくなってきている。
図 3 7は、 従来の帳票処理装置の構成図を示す (特公昭 6 3— 1 8 7 8 6号公 報参照)。
帳票 1 0 1は、 低い濃度で文字の記入枠が印刷され、 かつ記入枠内に文字が記 入される。 光電変換手段 2は、 帳票 1 0 1の 1行分の領域を文字記入枠の濃度を 低く、 文字の濃度を高く光電変換する。 この光電変換の結果得られた 1行分の領 域の各画素の濃度は、 記憶手段 1 0 3に記憶される。 記憶手段 1 0 3の記憶内容 は、 文字記入枠位置検出手段 1 0 4に送られる。 文字記入枠位置検出手段 1 0 4 は、 濃度が既定値の画素の数を行及び列方向に各々数える。 文字記入枠位置検出 手段 1 0 4は、 この数が行方向及び列方向の各々の既定値を越えた時、 この位置 に文字記入枠があると見なし、 この文字記入枠位置情報を、 文字切り出し手段 1 0 5に送る。 文字切り出し手段 1 0 5は、 文字記入枠位置情報と記憶手段 1 0 3 より送られる記憶内容を用いて、 文字の切り出しを行なう。
以上のように、 この従来例では、 文字記入枠の濃度が低いことを利用して文字 記入枠を検出し文字を切り出すため、 文字切り出しのためのマークなどは必要な い。 発明の開示 しかしながら、 従来の濃度差を用いる方法では、 例えば、 2値のファクシミ リ で帳票を送った場合、 記入枠はその濃度と 2値化閾値の関係で白か黒かを表す 1 又は 0に 2値化されてしまい、 2値化閾値によっては、 記入枠が消えたり、 ある いは、 記入枠も記入された文字の濃度と同じになってしまうといった場合があつ た。 あるいは、 従来は、 濃度情報が正確に送れる高性能なファクシミリが必要で あった。
本 明は、 以上の点に鑑み、 記入枠をカラ一/ rンクあるいはグレーカラーでは なく、 小さいドットの集合 (ドットテクスチャと呼ぶ) で出力し、 このような記 入枠のある帳票からドットテクスチャの記入枠を消去して記入された文字のみを 取り出すようにした帳票処理方法、 帳票処理プログラム、 帳票処理プログラムを 記録した記録媒体及び帳票処理装置を提供することを目的とする。 また、 本発明 は、 ドットの集合による線を用いて帳票を作ることができるので、 白黒のプリン ターで帳票を作成することを可能とすることを目的とする。 また、 本発明は、 読 み取りのための最も低廉な 2値のイメージリーダ、 ファクシミリ、 スキャナ等で 帳票を入力することを可能とすることを目的とする。 さらに、 本発明は、 行及び 文字記入位置マークの必要をなくし、 プリントァゥト時に特殊な文書出力処理を 不要とし、 帳票作成を容易にすることを目的とする。
また、 一般に、 帳票には項目を記入する枠の上または左などに、 その項目の見 出しが印刷されていることが普通である。 このような見出しと筆記文字とを分離 するために、 従来は見出しを枠同様にドロップアウトカラ一で印刷して分離した り、筆記文字より小さいというような曖昧な情報でそれらを分離したりしていた。 本発明は、 この点に鑑み、 見出し文字を枠と同様にドットテクスチャで印刷す ることにより、 枠を画像から落とすことと全く同じ手法で見出し文字を落とすよ うにすることを目的とする。 また、 本発明は、 原画像から手書き文字パターン部 分を分離後、 原画像からその部分を逆に落として、 残った画像に膨張処理を施す ことで、 見出し文字の認識も可能とすることを目的とする。
さらに、 本発明は、 ドットのサイズ、 ピッチ、 個数に付加情報 (バージョン、 認識指示命令、 真贋判定に利用する情報など) を表現することで、 ドットテクス チヤへの指示などの情報の埋め込むことを目的とする。
近年プリンターの技術が進み、 文字、 線をドットの密度を変化させて印刷でき るようになってきた。 本発明では、 ドットは収縮、 あるいは、 黒連結成分数 (ま わりを白画素で囲まれた接続する黒画素数) の計測技術など、 従来の画像処理技 術を用いることにより容易に除去することができることに注目し、 文字パターン を切り出すときには、 記入枠を除去し、 文字位置を求めるときには、 記入枠情報 を利用するようにした。
本発明の第 1の解決手段によると、 帳票が入力され、 ドットの集まりで構成された記入枠と、 記入された文字とを 含む文字枠データを作成する帳票入力ステップと、
前記帳票入力ステップで作成された文字枠データに基づき、 記入された文字の 文字データを検出する文字検出ステップと、
前記帳票入力ステツプで作成された文字枠データに基づき、 文字の記入される べき位置を表す記入枠位置データを検出する記入枠検出ステツプと、
前記文字検出ステツプで検出された文字データと、 前記記入枠検出ステツプに より検出された記入枠位置データに基づき、文字と記入枠とを対応付けることで、 文字毎の文字パターンを切り出す対応付けステップと、
前記対応付けステップにより切り出された各々の文字パターンに基づき、 記入 された各々の文字を認識する認識ステップと
を含む帳票処理方法、 これらのステップをコンピュータに実行させるための帳票 処理プロダラム及ぴ帳票処理プログラムを記録したコンピュータ読み取り可能な 記録媒体が提供される。
本発明の第 2の解決手段によると、
帳票が入力され、 ドットの集まりで構成された記入枠と、 記入された文字とを 含む文字枠データを作成する帳票入力手段と、
前記帳票入力手段で作成された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出手段と、
前記帳票入力手段で作成された文字枠データに基づき、 文字の記入されるべき 位置を表す記入枠位置データを検出する記入枠検出手段と、
前記文字検出手段で検出された文字データと、 前記記入枠検出手段により検出 された記入枠位置データに基づき、 文字と記入枠とを対応付けることで、 文字毎 の文字パターンを切り出す対応付け手段と、
前記対応付け手段により切り出された各々の文字パターンに基づき、 記入され た各々の文字を認識する認識手段と
を備えた帳票処理装置を提供される。
本発明の第 3の解決手段によると、
ドットの集まりで構成された見出し文字と、 ドットの集まりで構成された記入 枠と .、 記入された文字とを含む文字枠データを入力する入力ステップと、 前記入力ステップで入力された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出ステップと、
前記入力ステップにより入力された文字枠データに基づき、 文字枠データから 前記文字検出ステップで検出した文字パターンを除去する文字パターン除去ステ ップと、
隣接する各ドットが連結する程度に膨張処理を行う膨張ステツプと、 前記膨張ステップにより得られた画像中の見出しに対して、 見出し文字の認識 を行う認識ステップと
を含む帳票処理帳票処理方法、 これらのステップをコンピュータに実行させるた めの帳票処理プログラム及び帳票処理プログラムを記録したコンピュータ読み取 り可能な記録媒体が提供される。
本発明の第 4の解決手段によると、
ドットの集まりで構成され、 ドットの集まりを一様でないように変化させるこ とにより情報が埋め込まれた記入枠と、 記入された文字とを含む文字枠データを 入力する入力ステップと、
前記入力ステツプで入力された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出ステップと、
前記入力ステップにより入力された文字枠データに基づき、 文字枠データから 前記文字検出ステップで検出した文字パターンを除去する文字パターン除去ステ ップと、
前記文字パタ一ン除去ステツプにより求められた記入枠データに基づき、 記入 枠のドットの集まりの変化を検出して、 記入枠に埋め込まれた情報を判定する判 定ステップと
を含む帳票処理方法、 これらのステップをコンピュータに実行させるための帳票 処理プロダラム及び帳票処理プログラムを記録したコンピュータ読み取り可能な 記録媒体が提供される。 図面の簡単な説明 図 1は、 本発明に係る帳票処理方法のフ口一チヤ一ト。
図 2は、 本発明に係る帳票処理装置の第 1の実施の形態の構成図。
図 3は、 帳票処理に関する説明図。
図 4は、 文字検出処理の詳細フローチヤ一ト。
図 5は、 文字検出処理についての説明図。
図 6は、 記入枠検出処理の詳細フローチヤート。
図 7は、 記入枠検出処理についての説明図。
図 8は、 対応付け処理の詳細フローチヤ一卜。
図 9は、 対応付け処理についての説明図。
図 1 0は、本発明で記入枠に筆記文字が重なっても分離できる例を示す説明図。 図 1 1は、 見出し文字の分離と認識についての基本的な第 2の実施の形態の処 理のフローチャート。
図 1 2は、 本発明に係る帳票処理装匱の第 2の実施の形態の構成図。
図 1 3は、 ドットテクスチャ帳票への記入例についての説明図。
図 1 4は、 手書き文字パターンの抽出についての説明図。
図 1 5は、 見出しと記入枠の取り出しについての説明図。
図 1 6は、 見出し文字の分離と認識についての第 2の実施の形態と、 第 1の実 施の形態とを組み合わせた場合の処理のフローチヤ一ト。
図 1 7は、 フーリエ変換を利用するドット除去のフローチャート。
図 1 8は、 原画像の説明図。
図 1 9は、 原画像に対して離散フーリエ変換を実行した際の説明図。
図 2 0は、 高周波成分除去した際の説明図。
図 2 1は、 逆フーリェ変換を実施した際の説明図。
図 2 2は、 閾値を決めて 2値化した際の説明図
図 2 3は、 ウオルシュ ·了ダマール変換を利用するドット除去のフローチヤ一 b o 図 2 4は、 原画像の説明図。
図 2 5は、 原画像に対してウオルシュ■アダマール変換を実行した際の説明図。 図 2 6は、 高周波成分 (一部低周波成分も) 除去した際の説明図。
図 2 7は、 逆ウオルシュ■アダマール変換を実行した際の説明図。
図 2 8は、 閾値を決めて 2値化した際の説明図。
図 2 9は、 ステップ S 4 0 3の処理で、 低周波を切り落とさなかった場合の説 明図。
図 3 0は、 ドットテクスチャへの情報の埋め込みについてのフローチヤ一ト。 図 3 1は、 本発明に係る帳票処理装置の第 3の実施の形態の構成図。
図 3 2は、 この文字枠を構成するドットテクスチャ例。
図 3 3は、 ドットのサイズの変化によつて情報を付加する例。
図 3 4は、 ドットの有無によって情報を付加する例。
図 3 5は、 ドットのピッチの変化により付加情報を埋め込む例。
図 3 6は、 付加情報の埋め込みについての第 3の実施の形態と、 第 1の実施の 形態とを組み合わせた場合の処理のフローチャートを示す。
図 3 7は、 従来の帳票処理装置の構成図を示す, 発明を実施するための最良の形態
1 . 文字枠のドットテクスチャによる印刷 図 1に、 本発明に係る帳票処理方法の第 1の実施の形態のフローチャートを示 す。 図 2に、 本発明に係る帳票処理装置の第 1の実施の形態の構成図を示す。 ま た、 図 3に、 帳票処理に関する説明図を示す。
この帳票処理装置は、 処理部 1 1、 入力部 1 2、 記憶部 1 3、 出力部 1 4を備 える。 処理部は 1 1は、 記入枠検出手段 4、 文字検出手段 5、 対応付け手段 6、 文字認識手段 7を備える。 帳票入力部 1 2は、 光電変換手段 2を備える。 記憶部 1 3は、 文字枠データ蓄積手段 3、 結果記憶手段 8を備える。 まず、 帳票入力手段 1 2は、 光電変換手段 2により、 認識の対象となる帳票 1 を読み取り、電子データとして、文字と記入枠を含む文字枠データ 1 1を得る (帳 票入力処理 S 2 )。 文字枠データ蓄積手段 3は、 光電変換手段 2により読み取られ た文字枠データ 1 1を記憶する (文字枠データ蓄積処理 S 3 )。 文字枠データ 1 1 は、 記入枠検出手段 4により、 文字の記入されるべき位置を表す記入枠位置デー タ 1 3 cを検出する (記入枠検出処理 S 4 )。 一方、 入力データ 1 1は、 文字検出 手段 5により、 文字データ 1 2 bが検出される (文字検出処理 S 5 )。 なお、 文字 検出処理 S 5と記入枠検出処理 S 4は、 以上の説明では、 並列に処理される例を 示したが、 これらは、 順次に処理されてもよい。
対応付け手段 6では、 記入文字の文字データ 1 2 bと記入枠位置データ 1 3 c 力、ら、 各々の記入枠に記入された文字パターンを切り出す (対応付け処理 S 6 )。 この結果、 文字パターンは文字認識手段 7で認識され (文字認識処理 S 7 )、 認識 結果と記入枠が対応づけられて結果記憶手段 8に記憶される (結果記憶処理 S 8 )。 結果記憶処理 S 8において又はその後に、 出力部 1 4により他の装置へ認識結果 又はそれに関するデータを出力又は表示するようにしてもよい。
つぎに、 図 4に、 文字検出処理の詳細フローチャートを示す。 また、 図 5に、 文字検出処理についての説明図を示す。
文字検出処理 S 5が開始されると、 文字枠データ 1 1は文字検出手段 5に入力 され (S 5 1 )、 収縮処理が行われる (S 5 3 )。 収縮処理とは、 例えば、 黒画素 が連結された連結部分について、 その周囲 (エッジ) を収縮する処理である。 収 縮処理では、 例えば、 入力画像のエッジを抽出し、 そのエッジをを白画素に変え ることで収縮画像が得られる。 なお。 エッジとは、 白画素に隣接する黒画素を抽 出したものである。 また、 2重、 3重等のエッジを抽出及ぴ除去することで、 さ らに収縮処理することができる。 記入枠はドットで構成されていることから、 こ の収縮処理により ドットをより小さくすることができ、 一方、 記入された文字に はそれほどの影響はない。
つぎに、 この収縮処理結果 1 2 aにおいて微小点を除去する (S 5 5 )。 微小点 を除去する処理では、 例えば、 黒画素が連結した部分である連結成分を求め、 各 連結成分の黒画素数を求め、 予め定められた閾値以下又は閾値より小さい連結成 分を除去する。 つぎに、 残ったパターンに対して逆に膨張処理を行うことにより
( S 5 7 )、 記入された文字の文字データ 1 2 bを得ることができる。 膨張処理で は、 例えば、 入力画像のエッジを抽出し、 エッジの黒画素に隣接した白画素を黒 画素に変えることで膨張画像が得られる。
つぎに、 図 6に、 記入枠検出処理の詳細フローチャートを示す。 また、 図 7に、 記入枠検出処理についての説明図を示す。
記入枠検出処理 S 4が開始されると、 記入枠検出手段 4では文字枠データ 1 1 が入力される (S 4 1 )。 文字枠データ 1 1について単純に縦方向の周辺分布を取 つても記入された文字の影響があり、 記入枠位置を正確には検出できない。 そこ で記入枠に記入された文字の影響をできる限り,除去するため、 文字枠データ 1 1 から文字パターンを除去する処理が実行され、 記入枠データ 1 3 aが作成される ( S 4 3 ) 0 この処理は、 文字検出処理で検出された文字データ 1 2 bの各黒画素 の位置に対応する文字枠データの画素を白画素にすることにより行う。 つぎに、 記入枠データ 1 3 aを縦方向に積分又は累積することで周辺分布 1 3 bを求める ( S 4 5 )。 周辺分布 1 3 bから記入枠位置データ 1 3 cを得ることができる (S 4 7 )。 このとき、 例えば、 周辺分布 1 3 bのピークに相関する一定周期の区切り を求めるようにすればよい。
また、 記入枠に記入された文字の影響を低減するための別の方法としては、 文 字枠データ 1 1全体にエッジ検出をまず行い、 それから縦方向の周辺分布を取つ て記入枠位置検出を行う方法もある。 こうすることで、 文字パターンを除去する 処理を省略できる。 エッジ検出により ドット部は大量のエッジ (エッジを構成す る黒画素数) を生成し、 反対に記入された文字はその輪郭分のエッジしか生成し ないために影響を薄くすることができる。 つぎに、 記入枠データ 1 3 aを行方向 に積分又は累積することで周辺分布 1 3 bを求める (S 4 5 )。 周辺分布 1 3 か ら記入枠位置データ 1 3 cを得ることができる ( S 4 7 )。 このとき、 例えば、 周 辺分布 1 3 bのピークに相関する一定周期の区切りを求めるようにすればよい。 つぎに、 図 8に、 対応付け処理の詳細フローチャートを示す。 また、 図 9に、 対応付け処理についての説明図を示す。
対応付け処理 S 6が開始されると、 対応付け手段 6には、 記入枠検出処理 S 4 で求められた記入枠位置データ 1 3 cと文字検出処理 S 5で求められた文字デー タ 1 2 bが入力され、 これらが対応付けられる (S 6 1 )。 これにより、 各々の文 字毎に文字パターン 1 4 a〜l 4 cが切り出される ( S 6 3 )。 なお、 列方向につ いても同様の周期又は長さで文字パターン 1 4 a ~ l 4 cを切り出すことができ る。 この 1文字毎の文字パターン 1 4 aから 1 4 cに基づいて、 文字認識がなさ れる。
また、 本発明のようにドットテクスチャを記入枠に適用すれば、 上述の方法に より、 たとえ記入枠に筆記文字が重なっても容易に分離できる。
図 1 0は、 本発明で記入枠に筆記文字が重なっても分離できる例を示す説明図 である。
図 1 0 (A) のように記入枠 1 5 aに筆記文字 1 5 bが重なった場合も、 上述 のような本実施の形態を適用するこどにより、 図 1 0 ( B ) のように記入枠 1 5 aと筆記文字 1 5 bとを分離することができる。 2 . 文字枠に対する見出し文字のドットテクスチャによる印刷 つぎに、 文字枠に対する見出し文字のドットテクスチャによる印刷に関する実 施の形態について説明する。
帳票には項目を記入する枠の上または左などに、 その項目の見出しが印刷され ていることが普通である。 これと筆記文字とを分離するために、 従来は見出しを 枠同様にドロップアウトカラ一で印刷して分離したり、 筆記文字より小さいとい うような曖昧な情報でそれらを分離したりしていた。 し力 し、 本実施の形態によ ると、 見出し文字を枠と同様にドットテクスチャで印刷することにより、 枠を画 像から落とすことと全く同じ手法でそれらを落とすことができ、 また、 原画像か ら手書き文字パターン部分を分離後、 原画像からその部分を逆に落として、 残つ た画像に太め処理 (膨張処理) を施すことで、 見出し文字の認識も可能となる。 図 1 1に、 見出し文字の分離と認識についての基本的な第 2の実施の形態の処 理のフローチャートを示す。 また、 図 1 2に、 本発明に係る帳票処理装置の第 2 の実施の形態の構成図を示す。 この帳票処理装置は、 処理部 1 1、 入力部 1 2、 記憶部 1 3、 出力部 1 4を備える。 処理部は 1 1は、 記入枠検出手段 4、 文字検 出手段 5、 対応付け手段 6、 文字認識手段 7、 手書き文字除去手段 2 1を備える。 帳票入力部 1 2は、 光電変換手段 2を備える。 記憶部 1 3は、 文字枠データ蓄積 手段 3、 結果記億手段 8を備える。 なお、 各手段の構成については、 見出し文字 認識手段 2 2等特に説明される内容以外は、 上述の実施の形態と同様である。 図 1 3に、 ドットテクスチャ帳票への記入例についての説明図を示す。
まず、 処理部 1 1は、 原画像である文字枠データ 2 1 1を入力する ( S 2 0 l ) o この場合、 例えば、 上述の実施の形態と同様に、 次のように入力処理を実行する ことができる。 まず、 帳票入力手段 1 2は、 光電変換手段 2により、 認識の対象 となる帳票を読み取り、 電子データとして、 文字と記入枠を含む文字枠データ 2 1 1を得る (図 1、 帳票入力処理 S 2参照)。 文字枠データ蓄積手段 3は、 光電変 換手段 2により読み取られた文字枠データ 2 1 1を記憶する (図 1文字枠データ 蓄積処理 S 3参照)。 その後、 処理部 1 1は、 文字枠データ 2 1 1を記憶部 1 3の 文字枠データ蓄積手段 3から入力する。 その他にも、 処理部 1 1は、 入力済みの 文字枠データ 2 1 1が記憶部 1 3の文字枠データ蓄積手段 3に既に記憶されてい る場合、帳票入力処理 S 2及び文字枠データ蓄積処理 S 3を実行せずに、直接文字 枠データ蓄積手段 3から文字枠データ 2 1 1を入力するようにしても良い。
図 1 4に、 手書き文字パターンの抽出についての説明図を示す。
つぎに、 文字検出手段 5は、 手書き文字パターンについて文字検出処理を実行 する (S 2 0 3 )。 具体的には、 文字検出手段 5は、 上述の図 4に示された文字検 出処理の詳細フローチャート、 及び、 上述の図 5に示された文字検出処理につい ての説明図、 及びそれらの説明箇所で説明したように、 文字検出処理を実行する。 これにより、 文字検出手段 5により記入された文字の文字データ 2 1 2を得るこ とができる。
処理部 1 1の手書きパターン除去手段 2 1は、 入力された文字枠データ 2 1 1 に基づき、 文字枠データ 2 1 1から文字検出処理 S 2 0 3で検出した文字パター ン 2 1 2を除去することにより見出しを含む記入枠データを求める (S 2 0 5 )。 図 1 5に、 見出しと記入枠の取り出しについての説明図を示す。 つぎに、 手書 きパターン除去手段 2 1は、 求められた記入枠データに対してドットテクスチャ が連結する程度に各ドットの膨張処理を行う (S 2 0 7 )。 これにより、 図示のよ うな見出しと記入枠が取り出される。
つぎに、 文字認識手段 7は、 取り出された見出し (または、 見出しと記入枠) に対して、 見出し文字の認識を行う ( S 2 0 9 ) 0 文字認識手段 7が微小な点によ るノイズに弱い場合には、 手書きパターン除去手段における膨張処理の前段又は 後段に、 図 4で説明した微小点除去 ( S 5 5 ) を実施しても良い。
図 1 6に、 見出し文字の分離と認識についての第 2の実施の形態と、 第 1の実 施の形態とを組み合わせた場合の処理のフローチャートを示す。
まず、 上述の実施の形態と同様に、 帳票入力処理 S 1及び文字枠データ蓄積処 理 S 2が実行される。 記入枠検出処理 S 4、 文字検出処理 S 5、 対応付け処理 S 6については、 上述の通りである。 ここでは、 さらに、 手書きパターン除去手段 2 1は、 文字枠データ蓄積処理 S 3により蓄積された文字枠データを、 文字枠デ ータ蓄積手段 3から読み出して、 原画像として入力する (S 2 1 1 )。 つぎに、 手 書きパターン除去手段 2 1は、 文字検出処置 S 5 (文字検出手段 5 ) により求め られた文字データを用いて、 上述のように、 手書き文字パターンを除去する (S 2 1 5 )。 さらに、 手書きパターン除去手段 2 1は、 求められた見出しを含む記入 枠データに対して膨張処理を行う (S 2 1 7 )。 手書きパターン除去手段 2 1は、 このように見出し文字の分離処理を実行する。 さらに、 文字認識処理 S 7では、 対応付け処理 S 6により求められた手書き文字に加え、 ステップ 2 1 7からの分 離した見出し文字についても文字認識処理を実行する。 さらに、 文字認識処理手 段 7は、 認識された手書き文字及び見出し文字が結果記憶手段 8に記憶される。 文字認識手段 7が微小な点によるノィズに弱い場合には、 手書きパターン除去手 段における膨張処理の前段又は後段に、 図 4で説明した微小点除去 (S 5 5 ) を 実施しても良い。
つぎに、 ドットテクスチャのその他のオブジェクトへの応用について説明する。 本実施の形態では、 ドットテクスチャを帳票記入枠に利用する利点を述べた。 既に出願済の、 特願平 11-227231号及び特願平 11-227219号では、 ドットテクス チヤを編集対象の文書に適用して、 手書き訂正と容易に分離できる方法を提案し た。 このことから、 本発明を用いることで、 ドットテクスチャを、 写真や図など に適用して、 それらに対する編集記号などを容易に分離して、 それら編集記号が 意味する訂正を実施することも可能である。
3 . ドット除去のための膨張■収縮以外の方法
( 1 ) フーリェ変換を利用する方法
一般に、 ドットテクスチャは手書きパターンに比べて、 高周波成分で構成され る。 そこで、 入力された文字枠データ (画像) にフーリエ変換を適用して、 周波 数成分に変換し、 そこで高周波成分を除去し、 それを、 逆変換、 および、 2値化 して、 ドットを除去する方法が考えられる。
図 1 7に、 フーリエ変換を利用するドット除去のフローチャートを示す。
まず、 文字検出手段 5は、 文字枠データ蓄積手段 3に記憶された原画像データ である文字枠データを読みこむ (S 3 0 1 )。 または、 上述のように、 帳票入力処 理 S 2及び文字枠データ蓄積処理 S 3により文字枠データ蓄積手段 3に文字枠デ ータを記憶し、文字検出手段 5がその文字枠データを入力するようにしても良い。 図 1 8に、 原画像の説明図を示す。
つぎに、 文字検出手段 5は、 読みこんだ原画像に対して離散フーリエ変換を実 行する (S 3 0 2 )。 原画像データは、 例えば、 画像をスキャンした際の濃淡又は 白黒を表すデータを複数スキャン分含むものであり、 ここでの処理は、 その濃淡 又は白黒の変化を離散フーリエ変換するものである。 図 1 9に、 原画像に対して 離散フーリエ変換を実行した際の説明図を示す。 この図では、 中心を原点とし、 縦軸は垂直周波数成分、 横軸は水平周波数成分をあらわす。
つぎに、 文字検出手段 5は、 高周波成分の除去を実行する (S 3 0 3 )。 これに より原画像がボケる。 図 2 0に、 高周波成分除去する際の説明図を示す。 この図 では、 中心を原点とし、 縦軸は垂直周波数成分、 横軸は水平周波数成分をあらわ す。
さらに、 文字検出手段 5は、 逆離散フーリエ変換を実行する (S 3 0 4 )。 図 2 1に、 逆離散フーリエ変換を実行した際の説明図を示す。 つぎに、 文字検出手段 5は、 ステップ S 3 0 4で得られたボケ画像に対して閾値を決めて 2値化処理を 行う (S 3 0 5 )。 図 2 2に、 閾値を決めて 2値化した際の説明図を示す。 ( 2 ) ウオルシュ .アダマール変換を利用する方法
フーリェ変換が画像を三角関数の周波数成分に分解するのに対して、 ゥオルシ ュ■アダマール変換は、 矩形波の周波数成分に分解する。 原画像が 2値画像の場 合は、 このほうが有限周波数の範囲でも原画像をより忠実に表現できる。 これを 利用して、 やはり、 ウオルシュ ·アダマール変換により矩形波の周波数成分に変 換し、 そこで高周波成分を除去し、 それを、 逆変換、 および、 2値化して、 ドッ トを除去する方法が考えられる。
図 2 3に、 ウオルシュ 'アダマール変換を利用するドット除去のフローチヤ一 トを示す。
まず、 文字検出手段 5は、 文字枠データ蓄積手段 3に記憶された原画像データ である文字枠データを読みこむ (S 4 0 1 )。 または、 上述のように、 帳票入力処 理 S 2及び文字枠データ蓄積処理 S 3により文字枠データ蓄積手段 3に文字枠デ ータを記憶し、 文字検出手段 5がその文字枠データを入力するようにしても良い。 図 2 4に、 原画像の説明図を示す。
つぎに、 文字検出手段 5は、 読みこんだ原画像に対してウオルシュ 'ァダマー ル変換を実行する (S 4 0 2 )。 原画像データは、 例えば、 画像をスキャンした際 の白黒を表すデータを複数スキャン分含むものであり、 ここでの処理は、 その白 黒の変化をウオルシュ■アダマール変換するものである。 図 2 5に、 原画像に対 してウオルシュ 'アダマール変換を実行した際の説明図を示す。 この図では、 中 心を原点とし、 縦軸は垂直周波数成分、 横軸は水平周波数成分をあらわす。
つぎに、 文字検出手段 5は、 高周波成分の除去を実行する (S 4 0 3 )。 この処 理により、 原画像がボケる。 この際、 場合によっては少なくとも一部について低 周波成分を除去しても良い。 図 2 6に、 高周波成分 (一部低周波成分も) 除去し た際の説明図を示す。 この図では、 中心を原点とし、 縦軸は垂直周波数成分、 横 軸は水平周波数成分をあらわす。
さらに、 文字検出手段 5は、 逆ウオルシュ■アダマール変換を実行する ( S 4 0 4 )。 図 2 7に、 逆ウオルシュ■アダマール変換を実行した際の説明図を示す。 つぎに、 文字検出手段 5は、 ステップ S 4 0 4で得られたボケ画像に対して閾値 を決めて 2値化処理を行う (S 4 0 5 )。 図 2 8に、 閾値を決めて 2値化した際の 説明図を示す。
なお、 図 2 9は、 ステップ S 4 0 3の処理で、 低周波を切り落とさなかった場 合の説明図である。 すなわち、 その後に、 ステップ S 4 0 4、 S 4 0 5を経て得 られた 2値化した文字パターンである。
ここで、 フーリエ変換とウオルシュ ,アダマール変換に共通する点を明記して おくと、 一つは、 ドットが一定の大きさで規則的に (つまり周期的に) 酉 3置され ていないと、 このドットテクスチャから低周波成分が発生することになり、 上記 の処理では手書きされた記入パターンにノィズが混入する場合があることである。 よって、 できるだけドットが一定の大きさで規則的又は周期的に配置されている 方がよい。 二つ目は、 処理時間について、 フーリエ変換やウオルシュ ·ァダマー ル変換を行う専用のハードウエアを利用すると、 収縮 ·微小点除去■膨張による 処理より処理時間が一層短時間とすることができる。
( 3 ) その他画像をぼかすフィルタの利用
なお、 フーリエ変換とウオルシュ 'アダマール変換に共通するのは、 ドットテ クスチヤをぼかして、 適当な 2値化処理で削除していることである。 このことか ら、 各種のフィルタを用いて適当な 2値化を行うことでも可能である。
4 . ドットテクスチャへの情報の埋め込み つぎに、 ドットテクスチャへの情報の埋め込みについて説明する。 この実施の 形態は、 ドットテクスチャを利用して、 ドットのサイズ、 ピッチ、 個数等により 付加情報 (バージョン、 認識指示命令、 真贋判定に利用する情報など) を表現す るものである。
図 3 0に、 ドットテクスチャへの情報の埋め込みについてのフローチヤ一トを 示す。 また、 図 3 1に、 本発明に係る帳票処理装置の第 3の実施の形態の構成図 を示す。 この帳票処理装置は、 処理部 1 1、 入力部 1 2、 記憶部 1 3、 出力部 1 4を備える。 処理部は 1 1は、 記入枠検出手段 4、 文字検出手段 5、 対応付け手 段 6、 文字認識手段 7、 付加情報判定手段 2 3を備える。 帳票入力部 1 2は、 光 電変換手段 2を備える。 記憶部 1 3は、 文字枠データ蓄積手段 3、 結果記憶手段
8を'備える。
まず、 処理部 1 1は、 原画像である文字枠データ 2 1 1を入力する ( S 5 0 1 )。 この場合、 例えば、 上述の実施の形態と同様 (ステップ S 2 0 1参照) 入力処理 を実行することができる。
つぎに、 文字検出手段 5は、 手書き文字パターンについて文字検出処理を実行 する (S 5 0 3 )。 具体的には、 上述のステップ S 2 0 3のように、 文字検出手段 5により記入された文字の文字データ 2 1 2を得ることができる。
処理部 1 1の手書きパターン除去手段 2 1は、 入力された文字枠データに基づ き、 文字枠データから文字検出処理 S 2 0 3で検出した文字パターン 2 1 2を除 去することにより見出しを含む記入枠データを求める (S 5 0 5 )。
付加情報判定手段 2 3は、 求められた記入枠データ等ドットテクスチャに予め 定めた形式で埋め込まれた付加情報を判定する (S 5 0 7 )。
つぎに、 付加情報判定手段 2 3は、 取り出された付加情報を記憶部 1 3に記憶 する (S 5 0 9 )。
図 3 2に、 この文字枠を構成するドットテクスチャ例を示す。 各手段について は、 付加情報判定手段 2 3等特に説明される内容を以外は、 上述の実施の形態と 同様である。
この元になるドットテクスチャに、 付加情報を加えることができる。
付加情報の挿入方法としては、 例えば、 付加情報としては、 例えば、 数字、 漢 字など記入される文字種情報、 住所,氏名 ·年号など記入される文字データ種別、 など、 または、 文字記入枠、 手書き文字、 見出し等に関する情報など適宜のもの である。 図に示すドットテクスチャの一部のドットの大きさや位置等を変化させ ることにより文字記入枠に情報を付加することが出来る。 また、 この情報を文字 枠の複数の位置に埋め込むことにより、 一部が汚れた場合でも安定して情報を取 り出すことができる。 具体的な例を以下に示す。
図 3 3はドットのサイズの変化によって情報を付; ¾する例である。 例えば、 大 きいドットを 1、 小さいドットを 0、 (又はその逆) とすることにより文字枠の一 部に情報を埋め込むことが出来る。 図の例では、 すべての行に情報 [1 0 0 1 1 0 1 0]が埋め込まれている例である。
図 3 4はドットの有無によつて情報を付加する例である。 例えば、 ドットがあ ると 1、 ドットがないと 0、 にすることにより文字枠の一部に情報を埋め込むこ とが出来る。 図の例では、 矢印で示す行に情報 [1 0 1 0 0 1 1 1]が埋め込まれて いる例である。
図 3 5はドットのピツチの変化により付加情報を埋め込む例である。 例えば、 ドットピッチが広いと 1、 狭いと 0にすることにより文字枠の一部に情報を埋め 込むことが出来る。 図の例では、 すべての行に情報 [0 1 1 0 1 1 1 0 0 1]が埋め 込まれている例である。
情報付加の方法の一部を示したが、 情報付加の方法はこれらの方法に限らず、 ドットテクスチャを変化させて情報を埋め込むことが出来ればどのような方法で もよい。 付加情報処理手段 2 3では、 上述のように記入枠検出手段 4により抽出 された記入枠等のドットテクスチャに基づき、 これら予め定められた方式で付加 情報を読み取ることができる。
図 3 6に、 付加情報の埋め込みについての第 3の実施の形態と、 第 1の実施の 形態とを組み合わせた場合の処理のフローチャートを示す。
まず、 上述の実施の形態と同様に、 帳票入力処理 S 1及び文字枠データ蓄積処 理 S 2が実行される。 記入枠検出処理 S 4、 文字検出処理 S 5、 対応付け処理 S 6については、 上述の通りである。 ここでは、 さらに、 手書きパターン除去手段 2 1は、 文字枠データ蓄積処理 S 3により蓄積された文字枠データを、 文字枠デ ータ蓄積手段 3から読み出して、 原画像として入力する (S 3 1 1 )。 つぎに、 手 書きパターン除去手段 2 1は、 文字検出処置 S 5 (文字検出手段 5 ) により求め られた文字データを用いて、 上述のように、 手書き文字パターンを除去する ( S 3 1 5 )。 さらに、 付加情報判定手段 2 3は、 求められた記入枠データ等のドット テクスチャに埋め込まれた付加情報を判定する (S 3 1 7 )。 さらに、 付加情報判 定手段 2 3は、 判定された付加情報を結果記憶手段 8に記憶する。
なお、 本発明において、 ドット枠は、 ベタの黒でなければ、 輪郭のフォント、 JP2001/004673
18 あるいは斜;?泉で構成されるフォントであってもよい。 また、 文字位置検出、 記入 枠位置検出、 認識等の各処理は、 同様の効果があれば、 方法はこれに限らない。 なお、 以上の説明では行方向の記入枠位匱情報を求めてパターンを切り出す場 合について説明したが、 列方向の記入枠位置情報も同様に求めることができ、 さ らに、 両方向の記入枠位置を用いて文字を切り出してもよい。 これにより、 正方 形以外の横長又は縦長の記入枠についても対応することができる。
本発明の帳票処理方法は、 帳票処理プログラムを記録したコンピュータ読み取 り可能な記録媒体、 帳票処理プログラムを含みコンピュータの内部メモリにロー ド可能なプロダラム製品、 帳票処理プログラムを含みコンピュータが使用可能な 記録媒体にストァされたプログラム製品等により提供されることができる。 産業上の利用可能性 本発明によると、 以上のように、 記入枠をカラーインクあるいはグレーカラー ではなく、 ドットで出力し、 このような記入枠のある帳票からドットの記入枠を 消去して記入された文字のみを取り出すようにした帳票処理方法、 帳票処理プロ グラムを記録した記録媒体及び帳票処理装置を提供することができる。 また、 本 発明によると、 ドットの集合による線を用いて帳票を作ることができるので、 白 黒のプリンターで帳票を作成することを可能とすることができる。 また、 本発明 によると、 読み取りのため一般のイメージリーダ、 F A X、 スキャナ等で帳票を 入力することを可能とすることができる。 さらに、 本発明によると、 行及び文字 記入位置マークの必要をなくし、 プリントァゥト時に特殊な文書出力処理を不要 とし、 帳票作成を容易にすることができる。
本発明によると、 見出し文字を枠と同様にドットテクスチャで印刷することに より、 枠を画像から落とすことと全く同じ手法でそれらを落とすようにすること ができる。 また、 本発明によると、 原画像から手書き文字パターン部分を分離後、 原画像からその部分を逆に落として、 残った画像に太め処理を施すことで、 見出 し文字の認識も可能とすることができる。 さらに、 本発明によると、 ドットのサイズ、 ピッチ、 個数に付加情報 (パージ ヨン、 認識指示命令、 真贋判定に利用する情報など) を表現することで、 ドット テクスチャへの指示などの情報の埋め込むことができる。
また、 各実施の形態及びそれたの変形例は、 適宜組み合わせることができる。

Claims

請 求 の 範 囲
1 . 帳票が入力され、 ドットの集まりで構成された記入枠と、 記入された文字 とを含む文字枠データを作成する帳票入力ステップと、
前記帳票入力ステップで作成された文字枠データに基づき、 記入された文字の 文字データを検出する文字検出ステップと、
前記帳票入力ステツプで作成された文字枠データに基づき、 文字の記入される ベき位置を表す記入枠位置データを検出する記入枠検出ステップと、
前記文字検出ステップで検出された文字データと、 前記記入枠検出ステップに より検出された記入枠位置データに基づき、 文字と記入枠とを対応付けることで、 文字毎の文字パターンを切り出す対応付けステップと、
前記対応付けステップにより切り出された各々の文字パターンに基づき、 記入 された各々の文字を認識する認識ステツプと
を含む帳票処理方法。
2 . ドットの集まりで構成された見出し文字と、 ドットの集まりで構成された 記入枠と、 記入された文字とを含む文字枠データを入力する入力ステップと、 前記入力ステツプで入力された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出ステップと、
前記入力ステップにより入力された文字枠データに基づき、 文字枠データから 前記文字検出ステップで検出した文字パターンを除去する文字パターン除去ステ ップと、
隣接する各ドットが連結する程度に膨張処理を行う膨張ステップと、
前記膨張ステップにより得られた画像中の見出しに対して、 見出し文字の認識 を行う認識ステップと
を含む帳票処理方法。
3 . 前記入力ステップは、 認識の対象となる帳票を読み取り、 電子データとして、 見出し及び手書き文字 及び記入枠を含む文字枠データを作成するステップと、
作成された文字枠データを蓄積部に記憶するステップと、
文字枠データを蓄積部から読み取るステップと
を含む請求項 2に記載の帳票処理方法。
4 . ドットの集まりで構成され、 ドットの集まりを一様でないように変化させ ることにより情報が埋め込まれた記入枠と、 記入された文字とを含む文字枠デー タを入力する入力ステップと、
前記入力ステップで入力された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出ステップと、
前記入力ステップにより入力された文字枠データに基づき、 文字枠データから 前記文字検出ステップで検出した文字パターンを除去する文字パターン除去ステ ップと、
前記文字パターン除去ステップにより求められた記入枠データに基づき、 記入 枠のドットの集まりの変化を検出して、 記入枠に埋め込まれた情報を判定する判 定ステップと '
を含む帳票処理方法。 '
5 . 前記記入枠は、 ドットのサイズの変化によって情報が付加されることを特 徴とする請求項 4に記載の帳票処理方法。
6 . 前記記入枠は、 ドットの有無によって情報を付加することを特徴とする請 求項 4に記載の帳票処理方法。
7 . 前記記入枠は、 ドットのピッチの変化により付加情報を埋め込むことを特 徴とする請求項 4に記載の帳票処理方法。
8 . 前記文字検出ステップは、 微小な点を除くことにより、 文字枠データを除 去するようにした請求項 1、 2又は 4に記載の帳票処理方法,
9 . 前記文字検出ステップは、
前記帳票入力ステップにより入力された文字枠データについて、 黒画素が連結 された連結部分の周囲を収縮させるステップと、
予め定められた閾値より小さい点を除去するステップと、
帳票に記入された文宇の文字データを得るために、 残ったパターンを膨張させ るステップと
を含む請求項 1、 2又は 4に記載の帳票処理方法。
1 0 . 前記文字検出ステップは、
文字枠データを読みこむステップと、
読みこんだ文字枠データに対して周波数成分を表すデータへの変換を実行する ステップと、
高周波成分の除去、 又は、 高周波成分と少なくとも一部の低周波成分との除去 を実行するステップと、
変換された周波数成分を表すデータからの逆変換を実行するステップと、 逆変換により得られたボケ画像に対して、 所定の閾値により 2値化処理を行う ステップと
を含む請求項 1、 2又は 4に記載の帳票処理方法。
1 1 . 前記周波数成分への変換は、 離散フーリエ変換であり、 逆変換は、 逆離 散フーリェ変換であることを特徴とする請求項 1 0に記載の帳票処理方法。
1 2 . 前記周波数成分への変换は、 ウオルシュ 'アダマール変換であり、 逆変 換は、 ウオルシュ ·アダマール変換であることを特徴とする請求項 1 0に記載の 帳票処理方法。
1 3 . 前記記入枠検出ステツプは、 前記帳票入力ステップにより入力された文字枠データについて、 文字パターン を除去して記入枠データを作成するステップと、
記入枠データを行又は列方向に積分又は累積することで周辺分布を求めるステ ップと、
周辺分布から行又は列について記入枠位置データを得るステップと
を含む請求項 1乃至 1 2のいずれかに記載の帳票処理方法。
1 4 . 前記対応付けステップは、
前記文字検出ステップで求められた文字データと前記記入枠検出ステップで求 められた記入枠位置データとを対応付けるステップと、
文字データと記入枠位置データとの対応により、 各文字の文字パターンを切り 出すステップと
を含む請求項 1乃至 1 3のいずれかに記載の帳票処理方法。
1 5 . 前記記入枠検出ステップは、 行及び列の両方について、 記入枠位置デー タを求め、
前記対応付けステップは、 行及び列の両方の記入枠位置データに基づき、 文字 パターンを切り出すようにした請求項 1乃至 1 4のいずれかに記載の帳票処理方 法。
1 6 . 前記認識ステップにより認識された文字を、 記入枠に対応づけて記憶す る記憶ステップをさらに備えたことを特徴とする請求項 1乃至 1 5のいずれかに 記載の帳票処理方法。 .
1 7 . 前記文字枠データは、 ドットの集まりで構成される写真又は図などの画 像情報を含み、
前記文字検出ステップは、 さらに、 文字枠データから手書き文字を分離して検 出し、
前記認識ステップは、 さらに、 分離された文字又を認識すること を特徴とする請求項 1乃至 1 6のいずれかに記載の帳票処理方法。
1 8 . さらに、 文宇又に基づいて、 前記認識ステップにより認識された手書き 文字の訂正処理を行うステップをさらに備えた請求項 1 7に記載の帳票処理方法。
1 9 . 前記帳票入力ステップにより入力された文字枠データに基づき、 文字枠 データから前記文字検出ステップで検出した文字パターンを除去する文字パタ一 ン除去ステップと、
隣接する各ドットが連結する程度に膨張処理を行う膨張ステップと
をさらに含み、
前記認識ステップは、 さらに、 前記膨張ステップにより得られた画像中の見出 しに対して、見出し文字の認識を行うようにした請求項 1に記載の帳票処理方法。
2 0 . 前記帳票入力ステップにより入力された文字枠データに基づき、 文字枠 データから前記文字検出ステップで検出した文字パターンを除去する文字パター ン除去ステップと、 '
前記文字パタ一ン除去ステップにより求められた記入枠データに基づき、 記入 枠のドットの集まりの変化を検出して、 記入枠に埋め込まれた情報を判定する判 定ステップと
をさらに含む請求項 1又は 1 9に記載の帳票処理方法。
2 1 . 前記膨張ステップ又は前記膨張するステップの前又は後に、 微小点を除去 するステップをさらに含む請求項 2又は 9に記載の帳票処理方法。
2 2 . 帳票が入力され、 ドットの集まりで構成された記入枠と、 記入された文 宇とを含む文字枠データを作成する帳票入力ステップと、
前記帳票入力ステツプで作成された文字枠データに基づき、 記入された文字の 文字データを検出する文字検出ステップと、
前記帳票入力ステップで作成された文字枠データに基づき、 文字の記入される べき位置を表す記入枠位置データを検出する記入枠検出ステップと、 前記文字検出ステップで検出された文字データと、 前記記入枠検出ステップに より検出された記入枠位置データに基づき、文字と記入枠とを対応付けることで、 文字毎の文字パターンを切り出す対応付けステップと、
前記対応付けステップにより切り出された各々の文字パターンに基づき、 記入 された各々の文字を認識する認識ステップと
をコンピュータに実行させるための帳票処理プログラムを記録したコンピュータ 読み取り可能な記録媒体。
2 3 . 前記帳票入力ステップにより入力された文宇枠データに基づき、 文字枠 データから前記文字検出ステツプで検出した文字パタ一ンを除去する文字パタ一 ン除去ステップと、
隣接する各ドットが連結する程度に膨張処理を行う膨張ステップと
をさらに含み、
前記認識ステップは、 さらに、 前記膨張ステップにより得られた画像中の見出 しに対して、 見出し文字の認識を行うようにした請求項 2 2に記載のコンビユー タに実行させるための帳票処理プログラムを記録したコンピュータ読み取り可能 な記録媒体。
2 4 . 前記帳票入力ステップにより入力された文字枠データに基づき、 文字枠 データから前記文字検出ステップで検出した文字パターンを除去する文字パター ン除去ステップと、
前記文字パタ一ン除去ステツプにより求められた記入枠データに基づき、 記入 枠のドットの集まりの変化を検出して、 記入枠に埋め込まれた情報を判定する判 定ステップと
をさらに含む請求項 2 2又は 2 3に記載のをコンピュータに実行させるための帳 票処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
2 5 . ドットの集まりで構成された見出し文字と、 ドットの集まりで構成され た記入枠と、 記入された文字とを含む文字枠データを入力する入力ステップと、 前記入力ステップで入力された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出ステップと、
前記入力ステップにより入力された文字枠データに基づき、 文字枠データから 前記文字検出ステツプで検出した文字パタ一ンを除去する文字パターン除去ステ ップと、
隣接する各ドットが連結する程度に膨張処理を行う膨張ステップと、 前記膨張ステップにより得られた画像中の見出しに対して、 見出し文字の認識 を行う認識ステップと
をコンピュータに実行させるための帳票処理プログラムを記録したコンピュータ 読み取り可能な記録媒体。
2 6 . ドットの集まりで構成され、 ドットの集まりを一様でないように変化させ ることにより情報が埋め込まれた記入枠と、 記入された文字とを含む文字枠デー タを入力する入力ステップと、
前記入力ステップで入力された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出ステツプと、
前記入力ステップにより入力された文字枠データに基づき、 文字枠データから 前記文字検出ステップで検出した文字パターンを除去する文字パターン除去ステ ップと、
前記文字パターン除去ステップにより求められた記入枠データに基づき、 記入 枠のドットの集まりの変化を検出して、 記入枠に埋め込まれた情報を判定する判 定ステップと
をコンピュータに実行させるための帳票処理プログラムを記録したコンピュータ 読み取り可能な記録媒体。
2 7 . 帳票が入力され、 ドットの集まりで構成された記入枠と、 記入された文 字とを含む文字枠データを作成する帳票入力手段と、
前記帳票入力手段で作成された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出手段と、
前記帳票入力手段で作成された文字枠データに基づき、 文字の記入されるべき 位置を表す記入枠位置データを検出する記入枠検出手段と、
前記文字検出手段で検出された文字データと、 前記記入枠検出手段により検出 された記入枠位置データに基づき、 文字と記入枠とを対応付けることで、 文字毎 の文字パターンを切り出す対応付け手段と、
前記対応付け手段により切り出された各々の文字パターンに基づき、 記入され た各々の文字を認識する認識手段と
を備えた帳票処理装置。
2 8 · 前記認、識手段により認識された文字を、 記入枠に対応づけて記憶する記 憶手段又は記入枠に対応付けて出力する出力手段をさらに備えた請求項 2 7に記 載の帳票処理装置。 2 9 . 帳票が入力され、 ドットの集まりで構成された記入枠と、 記入された文 字とを含む文字枠データを作成する帳票入力ステップと、
前記帳票入力ステツプで作成された文字枠データに基づき、 記入された文字の 文字データを検出する文字検出ステツプと、
前記帳票入力ステップで作成された文字枠データに基づき、 文字の記入される べき位置を表す記入枠位置データを検出する記入枠検出ステップと、
前記文字検出ステップで検出された文字データと、 前記記入枠検出ステップに より検出された記入枠位置データに基づき、文字と記入枠とを対応付けることで、 文字毎の文字パターンを切り出す対応付けステップと、
前記対応付けステップにより切り出された各々の文字パターンに基づき、 記入 された各々の文字を認、識する認、識ステップと
をコンピュータに実行させるための帳票処理プログラム。
3 0 . 前記帳票入力ステップにより入力された文字枠データに基づき、 文字枠 データから前記文字検出ステップで検出した文字パターンを除去する文字パタ一 ン除去ステップと、
隣接する各ドットが連結する程度に膨張処理を行う膨張ステップと
をさらに含み、 - 前記認識ステップは、 さらに、 前記膨張ステップにより得られた画像中の見出 しに対して、 見出し文字の認識を行うようにした請求項 2 9に記載の帳票処理プ 口グラム。
3 1 . 前記帳票入力ステップにより入力された文字枠データに基づき、 文字枠 データから前記文字検出ステップで検出した文字パターンを除去する文字パター ン除去ステップと、
前記文字パタ一ン除去ステツプにより求められた記入枠データに基づき、 記入 枠のドットの集まりの変化を検出して、 記入枠に埋め込まれた情報を判定する判 定ステップと
をさらに含む請求項 2 9又は 3 0に記載の帳票処理プログラム。
3 2 . ドットの集まりで構成された見出し文字と、 ドッ トの集まりで構成され た記入枠と、 記入された文字とを含む文字枠データを入力する入力ステップと、 前記入力ステツプで入力された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出ステップと、
前記入力ステップにより入力された文字枠データに基づき、 文字枠データから 前記文字検出ステップで検出した文字パターンを除去する文字パターン除去ステ ップと、
隣接する各ドットが連結する程度に膨張処理を行う膨張ステップと、
前記膨張ステップにより得られた画像中の見出しに対して、 見出し文字の認識 を行う認識ステップと
をコンピュータに実行させるための帳票処理プログラム。
3 3 . ドットの集まりで構成され、 ドッ卜の集まりを一様でないように変化させ- ることにより情報が埋め込まれた記入枠と、 記入された文字とを含む文字枠デー タを入力する入力ステップと、
前記入力ステップで入力された文字枠データに基づき、 記入された文字の文字 データを検出する文字検出ステップと、
前記入力ステップにより入力された文字枠データに基づき、 文字枠データから 前記文字検出ステップで検出した文字パターンを除去する文字パターン除去ステ ップと、
前記文字パターン除去ステップにより求められた記入枠データに基づき、 記入 枠のドッ 1、の集まりの変化を検出して、 記入枠に埋め込まれた情報を判定する判 定ステップと
をコンピュータに実行させるための帳票処理プ口グラム。
PCT/JP2001/004673 2000-06-02 2001-06-01 Procede de traitement de document, support sur lequel est enregistre un programme de traitement de document et processeur de document WO2001093188A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP01936835A EP1310904A4 (en) 2000-06-02 2001-06-01 DOCUMENT PROCESSING METHOD, RECORDING MEDIA RECORDING A DOCUMENT PROCESSING PROGRAM AND DOCUMENT PROCESSOR
US10/276,329 US7221795B2 (en) 2000-06-02 2001-06-01 Document processing method, recording medium having recorded thereon document processing program, document processing program, document processing apparatus, and character-input document

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-166025 2000-06-02
JP2000166025 2000-06-02

Publications (2)

Publication Number Publication Date
WO2001093188A1 WO2001093188A1 (fr) 2001-12-06
WO2001093188A9 true WO2001093188A9 (fr) 2004-11-04

Family

ID=18669404

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/004673 WO2001093188A1 (fr) 2000-06-02 2001-06-01 Procede de traitement de document, support sur lequel est enregistre un programme de traitement de document et processeur de document

Country Status (3)

Country Link
US (1) US7221795B2 (ja)
EP (1) EP1310904A4 (ja)
WO (1) WO2001093188A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4704601B2 (ja) * 2000-11-01 2011-06-15 富士通株式会社 文字認識方法,プログラム及び記録媒体
JP4777024B2 (ja) * 2005-09-06 2011-09-21 キヤノン株式会社 画像処理装置および画像処理装置の制御方法
CN101354746B (zh) * 2007-07-23 2011-08-31 夏普株式会社 文字图像抽出装置及文字图像抽出方法
CN101562691B (zh) * 2008-04-17 2010-12-08 鸿富锦精密工业(深圳)有限公司 图像处理装置及方法
CN102033928B (zh) * 2010-12-15 2013-01-23 北京壹人壹本信息科技有限公司 手写原笔迹记录及查询系统、电子装置
JP6303814B2 (ja) * 2014-05-28 2018-04-04 沖電気工業株式会社 認識装置、認識方法、プログラムおよび認識システム
JP6903966B2 (ja) * 2017-03-16 2021-07-14 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5654576A (en) * 1979-10-12 1981-05-14 Toshiba Corp Optical character reader
JPS56101273A (en) 1980-01-18 1981-08-13 Mitsubishi Electric Corp Character disassembling system
US4817179A (en) * 1986-12-29 1989-03-28 Scan-Optics, Inc. Digital image enhancement methods and apparatus
DE3880847T2 (de) * 1987-01-20 1993-11-18 British Tech Group Verfahren und Vorrichtung zur Informationsergreifung beim Zeichnen oder Schreiben.
US4883291A (en) * 1988-05-11 1989-11-28 Telesis Controls Corporation Dot matrix formed security fonts
JPH0632078B2 (ja) * 1988-12-09 1994-04-27 工業技術院長 画像信号の処理方法
US5448692A (en) * 1991-03-27 1995-09-05 Ricoh Company, Ltd. Digital image processing device involving processing of areas of image, based on respective contour line traces
JPH06506080A (ja) * 1991-04-03 1994-07-07 ヒューレット・パッカード・カンパニー 位置検知装置
JPH0528313A (ja) 1991-07-18 1993-02-05 Hitachi Electron Eng Co Ltd 光学情報読取装置
JPH05113879A (ja) * 1991-10-23 1993-05-07 T A S Tsusho Kk プログラムの作成及びデータの処理方法
JP2789971B2 (ja) * 1992-10-27 1998-08-27 富士ゼロックス株式会社 表認識装置
JPH06231305A (ja) * 1993-02-05 1994-08-19 Fujitsu Ltd 文字認識方法、および該方法に使用する帳票
JP3655651B2 (ja) * 1994-09-02 2005-06-02 テキサス インスツルメンツ インコーポレイテツド データ処理装置
JPH08190606A (ja) * 1995-01-10 1996-07-23 Toshiba Corp 光学的文字読取装置
JPH08194777A (ja) 1995-01-13 1996-07-30 Nippon Telegr & Teleph Corp <Ntt> 手書き文字入力処理方法および手書き文字認識処理方法
JPH08329187A (ja) * 1995-06-06 1996-12-13 Oki Electric Ind Co Ltd 文書読取装置
FR2737930B1 (fr) * 1995-08-18 1997-10-31 Itesoft Procede et systeme de reconnaissance de caracteres manuscrits
JPH09185683A (ja) * 1995-12-28 1997-07-15 Advantest Corp 文字検査装置の画像処理方法とその装置
US6104833A (en) * 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method
JP3615333B2 (ja) * 1996-12-05 2005-02-02 株式会社リコー 罫線消去装置
JPH10171996A (ja) * 1996-12-09 1998-06-26 Advantest Corp 画像内粒状点検出方法
US6327387B1 (en) * 1996-12-27 2001-12-04 Fujitsu Limited Apparatus and method for extracting management information from image
JPH11143986A (ja) * 1997-10-17 1999-05-28 Internatl Business Mach Corp <Ibm> ビットマップイメージの処理方法及び処理装置、ビットマップイメージの処理を行うイメージ処理プログラムを格納した記憶媒体
JP3968614B2 (ja) * 1998-08-06 2007-08-29 カシオ計算機株式会社 情報転送装置及び情報転送プログラムを記録した記録媒体

Also Published As

Publication number Publication date
EP1310904A1 (en) 2003-05-14
US20030113019A1 (en) 2003-06-19
EP1310904A9 (en) 2004-01-28
WO2001093188A1 (fr) 2001-12-06
EP1310904A4 (en) 2007-03-28
US7221795B2 (en) 2007-05-22

Similar Documents

Publication Publication Date Title
KR101016712B1 (ko) 워터마크 정보검출 방법
JP4189506B2 (ja) 画像処理のための装置、方法及び記録媒体
EP1310912A2 (en) Image processing method, apparatus and system
US8611658B2 (en) Image processing apparatus and image processing method
JP2000194850A (ja) ユ―ザ囲み領域の抽出装置及び抽出方法
JPS63158678A (ja) 単語間スペ−ス検出方法
US7965293B2 (en) Image processing device, image processing method, and image processing program for reconstructing data
US8229214B2 (en) Image processing apparatus and image processing method
EP1310940A1 (en) Color display device and method
WO2001093188A9 (fr) Procede de traitement de document, support sur lequel est enregistre un programme de traitement de document et processeur de document
US8477988B2 (en) Image processing apparatus, image forming apparatus and computer readable medium
US7142733B1 (en) Document processing method, recording medium recording document processing program and document processing device
US6983071B2 (en) Character segmentation device, character segmentation method used thereby, and program therefor
JP3728209B2 (ja) 画像処理方法及び装置及びコンピュータプログラム及び記憶媒体
WO2000060531A2 (en) Extracting user data from a scanned image of a pre-printed form
JP4804433B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
JPS6325391B2 (ja)
CN100511267C (zh) 图文影像处理装置及其影像处理方法
JP4552757B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP3720748B2 (ja) 画像処理装置及びその制御方法並びにコンピュータプログラム及び記録媒体
JP2708604B2 (ja) 文字認識方法
JP3756660B2 (ja) 画像認識方法、装置および記録媒体
JPS6254380A (ja) 文字認識装置
JP3566738B2 (ja) 網掛け領域処理方法および網掛け領域処理装置
JP4738645B2 (ja) 網掛け領域検出装置、網掛け領域検出方法、プログラムおよび記憶媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB IT

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2001936835

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10276329

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001936835

Country of ref document: EP

COP Corrected version of pamphlet

Free format text: PAGE 2/37, DRAWING, REPLACED BY CORRECT PAGE 2/37

WWW Wipo information: withdrawn in national office

Ref document number: 2001936835

Country of ref document: EP