================================== 代码实现 ================================== PDF-Extract-Kit项目的核心代码实现在pdf_extract_kit目录下,该路径下包含下述几个模块: - configs: 特定模块的配置文件,如 ``pdf_extract_kit/configs/unimernet.yaml`` ,如果本身配置简单,建议放在 ``repo_root/configs`` 的 ``yaml`` 文件中的 ``model_config`` 里进行定义,方便用户修改。 - dataset: 自定义的 ``ImageDataset`` 类,用于加载和预处理图像数据。它支持多种输入类型,并且可以对图像进行统一的预处理操作(如调整大小、转换为张量等),以便于后续的模型推理加速。 - evaluation: 模型结果评测模块,支持多种任务类型评测,如 ``布局检测`` 、 ``公式检测`` 、 ``公式识别`` 等等,方便用户对不同任务、不同模型进行公平对比。 - registry: ``Registry`` 类是一个通用的注册表类,提供了注册、获取和列出注册项的功能。用户可以使用该类创建不同类型的注册表,例如任务注册表、模型注册表等。 - tasks: 最核心的任务模块,包含了许多不同类型的任务,如 ``布局检测`` 、 ``公式检测`` 、 ``公式识别`` 等等,用户添加新任务和新模型一般仅需要在这里进行代码添加。 .. note:: 基于上述的模块化设计,用户拓展新模块一般只需要在tasks里实现自己的新任务类及对应模型(更多情况下仅需要实现对应模型,任务已经定义好),然后在registry里注册即可。 下面我们以添加基于 ``YOLO``的 ``布局检测`` 模型为例,介绍如何添加新任务和新模型. 任务定义及注册 ============== 首先我们在 ``tasks`` 下添加一个 ``layout_detection`` 目录,然后在该目录下添加一个 ``task.py`` 文件用于定义布局检测任务类,具体如下: .. code-block:: python from pdf_extract_kit.registry.registry import TASK_REGISTRY from pdf_extract_kit.tasks.base_task import BaseTask @TASK_REGISTRY.register("layout_detection") class LayoutDetectionTask(BaseTask): def __init__(self, model): super().__init__(model) def predict_images(self, input_data, result_path): """ Predict layouts in images. Args: input_data (str): Path to a single image file or a directory containing image files. result_path (str): Path to save the prediction results. Returns: list: List of prediction results. """ images = self.load_images(input_data) # Perform detection return self.model.predict(images, result_path) def predict_pdfs(self, input_data, result_path): """ Predict layouts in PDF files. Args: input_data (str): Path to a single PDF file or a directory containing PDF files. result_path (str): Path to save the prediction results. Returns: list: List of prediction results. """ pdf_images = self.load_pdf_images(input_data) # Perform detection return self.model.predict(list(pdf_images.values()), result_path, list(pdf_images.keys())) 可以看到,任务定义包含下面几个要点: * 使用 ``@TASK_REGISTRY.register("layout_detection")`` 语法直接将布局任务类注册到 ``TASK_REGISTRY`` 下 ; * ``__init__`` 初始化函数传入 ``model`` , 具体参考 ``BaseTask`` 类 * 实现推理函数,这里考虑到布局检测通常会处理图像类及PDF文件,所以提供了两个函数 ``predict_images`` 和 ``predict_pdfs`` ,方便用户灵活选择。 模型定义及注册 ============== 接下来我们实现具体模型,在task下面新建models目录,并添加yolo.py用于YOLO模型定义,具体定义如下: .. code-block:: python import os import cv2 import torch from torch.utils.data import DataLoader, Dataset from ultralytics import YOLO from pdf_extract_kit.registry import MODEL_REGISTRY from pdf_extract_kit.utils.visualization import visualize_bbox from pdf_extract_kit.dataset.dataset import ImageDataset import torchvision.transforms as transforms @MODEL_REGISTRY.register('layout_detection_yolo') class LayoutDetectionYOLO: def __init__(self, config): """ Initialize the LayoutDetectionYOLO class. Args: config (dict): Configuration dictionary containing model parameters. """ # Mapping from class IDs to class names self.id_to_names = { 0: 'title', 1: 'plain text', 2: 'abandon', 3: 'figure', 4: 'figure_caption', 5: 'table', 6: 'table_caption', 7: 'table_footnote', 8: 'isolate_formula', 9: 'formula_caption' } # Load the YOLO model from the specified path self.model = YOLO(config['model_path']) # Set model parameters self.img_size = config.get('img_size', 1280) self.pdf_dpi = config.get('pdf_dpi', 200) self.conf_thres = config.get('conf_thres', 0.25) self.iou_thres = config.get('iou_thres', 0.45) self.visualize = config.get('visualize', False) self.device = config.get('device', 'cuda' if torch.cuda.is_available() else 'cpu') self.batch_size = config.get('batch_size', 1) def predict(self, images, result_path, image_ids=None): """ Predict layouts in images. Args: images (list): List of images to be predicted. result_path (str): Path to save the prediction results. image_ids (list, optional): List of image IDs corresponding to the images. Returns: list: List of prediction results. """ results = [] for idx, image in enumerate(images): result = self.model.predict(image, imgsz=self.img_size, conf=self.conf_thres, iou=self.iou_thres, verbose=False)[0] if self.visualize: if not os.path.exists(result_path): os.makedirs(result_path) boxes = result.__dict__['boxes'].xyxy classes = result.__dict__['boxes'].cls vis_result = visualize_bbox(image, boxes, classes, self.id_to_names) # Determine the base name of the image if image_ids: base_name = image_ids[idx] else: base_name = os.path.basename(image) result_name = f"{base_name}_MFD.png" # Save the visualized result cv2.imwrite(os.path.join(result_path, result_name), vis_result) results.append(result) return results 可以看到,模型定义包含下面几个要点: * 使用 ``@MODEL_REGISTRY.register('layout_detection_yolo')`` 语法直接将yolo布局模型注册到 ``MODEL_REGISTRY`` 下; * 初始化函数需要实现: + id_to_names的类别映射,用于可视化展示 + 模型参数配置 + 模型初始化 * 模型推理函数需要实现多种类型的模型推理:这里支持图像列表和PIL.Image类,可以方便用户直接基于图像路径或者图像流进行推理。 实现上述类定义后,将 ``LayoutDetectionYOLO`` 添加到 ``layout_detection`` 任务下 ``__init__.py`` 的 ``__all__`` 中即可。 .. code-block:: python from pdf_extract_kit.tasks.layout_detection.models.yolo import LayoutDetectionYOLO from pdf_extract_kit.registry.registry import MODEL_REGISTRY __all__ = [ "LayoutDetectionYOLO", ] .. note:: 对于同一个任务,我们支持多种模型,用户具体选择哪个可以根据评测结果进行选择,结合模型 ``精度`` 、 ``速度`` 和 ``场景适配程度`` 进行选择。 实现了任务和模型后,可以在 repo_root/scripts下添加脚本程序 ``layout_detection.py`` 示例脚本 ============== .. code-block:: python import os import sys import os.path as osp import argparse sys.path.append(osp.join(os.path.dirname(os.path.abspath(__file__)), '..')) from pdf_extract_kit.utils.config_loader import load_config, initialize_tasks_and_models import pdf_extract_kit.tasks # 确保所有任务模块被导入 TASK_NAME = 'layout_detection' def parse_args(): parser = argparse.ArgumentParser(description="Run a task with a given configuration file.") parser.add_argument('--config', type=str, required=True, help='Path to the configuration file.') return parser.parse_args() def main(config_path): config = load_config(config_path) task_instances = initialize_tasks_and_models(config) # get input and output path from config input_data = config.get('inputs', None) result_path = config.get('outputs', 'outputs'+'/'+TASK_NAME) # layout_detection_task model_layout_detection = task_instances[TASK_NAME] # for image detection detection_results = model_layout_detection.predict_images(input_data, result_path) # for pdf detection # detection_results = model_layout_detection.predict_pdfs(input_data, result_path) # print(detection_results) print(f'The predicted results can be found at {result_path}') if __name__ == "__main__": args = parse_args() main(args.config) 支持类型拓展 ============== 批处理拓展 ==============