-
Notifications
You must be signed in to change notification settings - Fork 159
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
如何设置运行时浮点精度为fp16 #108
Comments
你好,
|
|
@jianfeifeng @yuxianzhi 感谢两位的回复,也就是说假设我需要把模型下发到应用里,就必须根据不同的设备下发不同的模型对吧,比如在支持armv8.2的机器上下发fp16的模型,其他机器上下发fp32的模型。 |
Bolt的模型精度转换模块可以提取出来单独调用,只需要保证模型数据结构的精度参数和权重类型是目标类型即可。可以参考X2bolt.cpp部分调用的ms_datatype_converter函数https://github.com/huawei-noah/bolt/blob/c3eb7a22e4f7acc2cc450606d1875666d4b11574/model_tools/src/online_conversion.cpp#L99。 |
bolt的开发人员你们好,我在使用的过程中遇到如下问题,希望你们可以抽空帮忙看一下
问题1:在使用C API时,我发现并没有多少示例代码,而且我根据API也没有发现设置运行时浮点精度的方式(即模型为fp32的,但是按照fp16的精度计算),难道只有将模型转换为fp16的才能跑fp16代码吗?
问题2:如果只有fp16的模型才能跑fp16代码,那么请问如何设置输入,因为fp16的tensor也是fp16的,难道需要外部给进去fp16的数据吗?
The text was updated successfully, but these errors were encountered: