目录

Deploy Paddle Ocr GPU Web Service

Deploy Paddle Ocr Gpu Web Service

注意:此文章由 chatGPT 生成,信息存在误导性。仅供参考。

要在 Paddle Serving 容器中部署使用 GPU 版本的 Paddle OCR Web 服务,您需要按照以下步骤进行操作:

安装 Docker

如果您还没有安装 Docker,请按照以下链接的说明安装 Docker: https://docs.docker.com/get-docker/

获取 Paddle OCR 模型

在此处下载 Paddle OCR 模型: https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_server_v2.0_rec_infer.tar.gz

解压缩模型文件并将其存储在本地目录中,例如“/path/to/paddle-ocr-model”。

构建 Paddle Serving GPU 容器

执行以下命令以构建 Paddle Serving GPU 容器:

1
docker pull hub.baidubce.com/paddlepaddle/serving:latest-gpu

启动容器

执行以下命令以启动 Paddle Serving GPU 容器:

1
docker run --runtime=nvidia --rm -it -p 9292:9292 -v /path/to/paddle-ocr-model:/paddle_model/inference --name paddle-ocr-serving-gpu hub.baidubce.com/paddlepaddle/serving:latest-gpu /bin/bash -c "python -m paddle_serving_server.serve --model /paddle_model/inference/ch_ppocr_server_v2.0_rec_infer/ --port 9292 --name ocr_rec_serving --gpu_id 0"

说明:

  • 将“/path/to/paddle-ocr-model”替换为您的 Paddle OCR 模型所在的目录。
  • “–runtime=nvidia”参数指定 Docker 将使用 NVIDIA GPU 运行容器。
  • “-p 9292:9292”参数指定容器将在哪些端口上监听请求。
  • “-v /path/to/paddle-ocr-model:/paddle_model/inference”参数将本地目录挂载到容器中的“/paddle_model/inference”目录中。
  • “–name paddle-ocr-serving-gpu”参数指定容器的名称。
  • “/bin/bash -c “python -m paddle_serving_server.serve –model /paddle_model/inference/ch_ppocr_server_v2.0_rec_infer/ –port 9292 –name ocr_rec_serving –gpu_id 0””命令将在容器中启动 Paddle Serving 服务器,并将模型路径指定为“/paddle_model/inference/ch_ppocr_server_v2.0_rec_infer/”,将端口号指定为“9292”,并将服务器名称指定为“ocr_rec_serving”。此外,“–gpu_id 0”参数指定使用 GPU 设备的 ID,0 表示使用第一个 GPU 设备。

使用 Web 服务进行预测

现在,您可以使用任何支持 HTTP 协议的客户端与 Paddle OCR 的 Web 服务进行交互,例如通过以下 URL 进行 POST 请求来预测图像中的文本:

1
2
bash 
http://localhost:9292/ocr_rec_serving/recognize_text?img=your_image_path

说明:

  • “localhost:9292”是容器将在其中监听请求的地址和端口。
  • “ocr_rec_serving”是在启动容器时指定的服务器名称。
  • “your_image_path”是要识别的图像的路径。请注意,图像必须能够在容器中访问,或者您可以将其上传到容器中并使用相对路径。
  • 可以通过在请求中添加其他参数来控制识别的行为,例如识别的语言、输出格式等。有关可用参数的完整列表,请参阅 Paddle OCR 文档。

请注意

在使用 GPU 版本的 Paddle Serving 容器时,您需要安装并配置适当的 NVIDIA 驱动程序和 CUDA 工具包,以便 Docker 容器能够使用 GPU 设备。此外,您还需要确保您的系统具有足够的 GPU 内存来运行模型。