@article { author = {Fateh, Amirreza and rezvani, mohsen and Tajary, Alireza and fateh, mansoor}, title = {Providing a Voting-Based Method for Combining Deep Neural Network Outputs to Layout Analysis of Printed Documents}, journal = {Journal of Machine Vision and Image Processing}, volume = {9}, number = {1}, pages = {47-64}, year = {2022}, publisher = {Iranian Society of Machine Vision and Image Processing}, issn = {2383-1197}, eissn = {2383-1197}, doi = {}, abstract = {In the last few decades, a lot of research has been done in the field of OCR or optical character recognition. Optical character recognition is one of the ways to convert text images to editable text and recognize letters and words automatically. Recognizing textual and non-textual areas within a document is known as document layout analysis, and is one of the key steps in the process of converting a document image to editable text. Separating textual and non-textual areas within an image is one of the most effective possible preprocesses in optical character recognition systems. The lack of the same template on all pages, the presence of complex backgrounds, different kinds of noises, low quality, image rotation, and the existence of more than one text column prevent the correct recognition of areas containing text. Failure to correctly recognize areas containing text and, consequently, incorrect recognition of line coordinates will disrupt all subsequent parts of an optical character recognition system. In this research, a new method has been proposed to recognize textual areas within the image. The proposed method, using various methods and using a voting system among them, extracts the textual areas of the image. The proposed method has been trained and tested on a dataset with more than 950 images and reached 97.94% accuracy. The presented dataset in this article is open access.}, keywords = {Image Segmentation,document layout analysis,Text detection,image detection,Voting}, title_fa = {ارائه روشی مبتنی بر رای‌گیری برای ترکیب خروجی‌های شبکه‌های عمیق جهت آنالیز قالب‌بندی اسناد چاپی}, abstract_fa = {در چند دهه گذشته، تحقیقات فراوانی در زمینه OCR یا نویسه‌خوان نوری انجام شده است. نویسه‌خوان نوری، یکی از راه‌های تبدیل تصاویر متنی به متن قابل ویرایش و شناسایی حروف و کلمات به صورت خودکار است. تشخیص مناطق متنی و غیرمتنی درون سند به آنالیز قالب‌بندی اسناد شناخته می‌شود و یکی از گام‌های کلیدی در روند تبدیل تصویر سند به متن قابل ویرایش است. جداسازی مناطق متنی و غیرمتنی درون یک تصویر از تاثیرگذارترین پیش‌پردازش‌های ممکن در سیستم‌های نویسه‌خوان نوری است. نبودن یک قالب یکسان در تمامی صفحات، وجود پس‌زمینه‌های پیچیده، نویزهای مختلف، کیفیت پایین، چرخش تصاویر و تصاویر چندین ستونه مانع از شناسایی درست مناطق حاوی متن می‌شوند. عدم تشخیص درست مناطق حاوی متن و به‌تبع آن عدم تشخیص صحیح مختصات خطوط، تمامی بخش‌های بعدی یک سیستم نویسه‌خوان نوری را دچار اخلال می‌کند. در این تحقیق، روشی نوین برای تشخیص مناطق متنی درون تصویر ارائه شده است. روش پیشنهادی، با بکارگیری از چندین روش مختلف و استفاده از سیستم رای‌گیری در میان آن‌ها، مناطق متنی تصویر را استخراج می‌نماید که تا کنون در کارهای پیشین از آن بهره گرفته نشده است. روش پیشنهادی بر روی دادگانی از تصاویر با بیش از 950 صفحه مورد آموزش و آزمون قرار گرفته است  که نتایج آزمون حاکی از ارائه دقت‌ 97.94% در روش پیشنهادی است. مجموعه دادگان ارائه شده در این مقاله به صورت آزاد در دسترس است.}, keywords_fa = {Image Segmentation,document layout analysis,Text detection,image detection,Voting}, url = {https://jmvip.sinaweb.net/article_136197.html}, eprint = {https://jmvip.sinaweb.net/article_136197_9b6a21019958a5f000b7d01b227dc039.pdf} }