Skip to content

Latest commit

 

History

History
 
 

humanseg_mobile

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 
 
 
 
 
 
 

humanseg_mobile

模型名称 humanseg_mobile
类别 图像-图像分割
网络 hrnet
数据集 百度自建数据集
是否支持Fine-tuning
模型大小 5.8MB
指标 -
最新更新日期 2021-02-26

一、模型基本信息

  • 应用效果展示

    • 样例结果示例:

  • 模型介绍

    • HumanSeg-mobile采用了HRNet_w18_small_v1的网络结构,模型大小只有5.8M, 适用于移动端或服务端CPU的前置摄像头场景。

    • 更多详情请参考:humanseg_mobile

二、安装

三、模型API预测

  • 1、命令行预测

    hub run humanseg_mobile --input_path "/PATH/TO/IMAGE"
    
  • 2、预测代码示例

    • 图片分割及视频分割代码示例:
    import cv2
    import paddlehub as hub
    
    human_seg = hub.Module(name='humanseg_mobile')
    im = cv2.imread('/PATH/TO/IMAGE')
    #visualization=True可以用于查看人像分割图片效果,可设置为False提升运行速度。
    res = human_seg.segment(images=[im],visualization=True)
    print(res[0]['data'])
    human_seg.video_segment('/PATH/TO/VIDEO')
    human_seg.save_inference_model('/PATH/TO/SAVE/MODEL')
    • 视频流预测代码示例:
    import cv2
    import numpy as np
    import paddlehub as hub
    
    human_seg = hub.Module(name='humanseg_mobile')
    cap_video = cv2.VideoCapture('\PATH\TO\VIDEO')
    fps = cap_video.get(cv2.CAP_PROP_FPS)
    save_path = 'humanseg_mobile_video.avi'
    width = int(cap_video.get(cv2.CAP_PROP_FRAME_WIDTH))
    height = int(cap_video.get(cv2.CAP_PROP_FRAME_HEIGHT))
    cap_out = cv2.VideoWriter(save_path, cv2.VideoWriter_fourcc('M', 'J', 'P', 'G'), fps, (width, height))
    prev_gray = None
    prev_cfd = None
    while cap_video.isOpened():
        ret, frame_org = cap_video.read()
        if ret:
            [img_matting, prev_gray, prev_cfd] = human_seg.video_stream_segment(frame_org=frame_org, frame_id=cap_video.get(1), prev_gray=prev_gray, prev_cfd=prev_cfd)
            img_matting = np.repeat(img_matting[:, :, np.newaxis], 3, axis=2)
            bg_im = np.ones_like(img_matting) * 255
            comb = (img_matting * frame_org + (1 - img_matting) * bg_im).astype(np.uint8)
            cap_out.write(comb)
        else:
            break
    
    cap_video.release()
    cap_out.release()
  • 3、API

    def segment(images=None,
                paths=None,
                batch_size=1,
                use_gpu=False,
                visualization=False,
                output_dir='humanseg_mobile_output')
    • 预测API,用于人像分割。

    • 参数

      • images (list[numpy.ndarray]): 图片数据,ndarray.shape 为 [H, W, C],BGR格式;
      • paths (list[str]): 图片的路径;
      • batch_size (int): batch 的大小;
      • use_gpu (bool): 是否使用 GPU预测,如果使用GPU预测,则在预测之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置;
      • visualization (bool): 是否将识别结果保存为图片文件;
      • output_dir (str): 图片的保存路径。
    • 返回

      • res (list[dict]): 识别结果的列表,列表中每一个元素为 dict,关键字有 'save_path', 'data',对应的取值为:
        • save_path (str, optional): 可视化图片的保存路径(仅当visualization=True时存在);
        • data (numpy.ndarray): 人像分割结果,仅包含Alpha通道,取值为0-255 (0为全透明,255为不透明),也即取值越大的像素点越可能为人体,取值越小的像素点越可能为背景。
    def video_stream_segment(self,
                            frame_org,
                            frame_id,
                            prev_gray,
                            prev_cfd,
                            use_gpu=False):
    • 预测API,用于逐帧对视频人像分割。

    • 参数

      • frame_org (numpy.ndarray): 单帧图片数据,ndarray.shape 为 [H, W, C],BGR格式;
      • frame_id (int): 当前帧的编号;
      • prev_gray (numpy.ndarray): 前一帧输入网络图像的灰度图;
      • prev_cfd (numpy.ndarray): 前一帧光流追踪图和预测结果融合图
      • use_gpu (bool): 是否使用 GPU预测,如果使用GPU预测,则在预测之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置;
    • 返回

      • img_matting (numpy.ndarray): 人像分割结果,仅包含Alpha通道,取值为0-1 (0为全透明,1为不透明)。
      • cur_gray (numpy.ndarray): 当前帧输入网络图像的灰度图;
      • optflow_map (numpy.ndarray): 当前帧光流追踪图和预测结果融合图
    def video_segment(self,
                      video_path=None,
                      use_gpu=False,
                      save_dir='humanseg_mobile_video_result'):
    • 预测API,用于视频人像分割。

    • 参数

      • video_path (str): 待分割视频路径。若为None,则从本地摄像头获取视频,并弹出窗口显示在线分割结果。
      • use_gpu (bool): 是否使用 GPU预测,如果使用GPU预测,则在预测之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置;
      • save_dir (str): 视频保存路径,仅在video_path不为None时启用,保存离线视频处理结果。
    def save_inference_model(dirname='humanseg_mobile_model',
                             model_filename=None,
                             params_filename=None,
                             combined=True)
    • 将模型保存到指定路径。

    • 参数

      • dirname: 存在模型的目录名称
      • model_filename: 模型文件名称,默认为__model__
      • params_filename: 参数文件名称,默认为__params__(仅当combined为True时生效)
      • combined: 是否将参数保存到统一的一个文件中

四、服务部署

  • PaddleHub Serving可以部署一个人像分割的在线服务。

  • 第一步:启动PaddleHub Serving

    • 运行启动命令:
    $ hub serving start -m humanseg_mobile
    • 这样就完成了一个人像分割的服务化API的部署,默认端口号为8866。

    • NOTE: 如使用GPU预测,则需要在启动服务之前,设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置。

  • 第二步:发送预测请求

    • 配置好服务端,以下数行代码即可实现发送预测请求,获取预测结果
    import requests
    import json
    import base64
    
    import cv2
    import numpy as np
    
    def cv2_to_base64(image):
        data = cv2.imencode('.jpg', image)[1]
        return base64.b64encode(data.tostring()).decode('utf8')
    def base64_to_cv2(b64str):
        data = base64.b64decode(b64str.encode('utf8'))
        data = np.fromstring(data, np.uint8)
        data = cv2.imdecode(data, cv2.IMREAD_COLOR)
        return data
    
    # 发送HTTP请求
    org_im = cv2.imread('/PATH/TO/IMAGE')
    data = {'images':[cv2_to_base64(org_im)]}
    headers = {"Content-type": "application/json"}
    url = "http://127.0.0.1:8866/predict/humanseg_mobile"
    r = requests.post(url=url, headers=headers, data=json.dumps(data))
    
    # 保存图片
    mask =cv2.cvtColor(base64_to_cv2(r.json()["results"][0]['data']), cv2.COLOR_BGR2GRAY)
    rgba = np.concatenate((org_im, np.expand_dims(mask, axis=2)), axis=2)
    cv2.imwrite("segment_human_mobile.png", rgba)

五、更新历史

  • 1.0.0

    初始发布

  • 1.1.0

    新增视频人像分割接口

    新增视频流人像分割接口

  • 1.1.1

    修复cudnn为8.0.4显存泄露问题