公众号
关注微信公众号
移动端
创头条企服版APP

Google更新Coral开发平台,支持训练后量化与TF Lite委派

4858
搜狐财经 2019-08-13 14:33 抢发第一评

原标题:Google更新Coral开发平台,支持训练后量化与TF Lite委派

Google更新其人工智能开发平台Coral,不只发布新的编译器版本支持训练后量化(Post-Training Quantization),还加入了TensorFlow Lite委派(Delegate)API,Edge TPU也能够用来加速使用TensorFlow Lite直译器API的模型。

Coral是一个人工智能测试平台,包含了软件以及硬件,开发人员可以在搭载Edge TPU的Coral开发板上建立、训练和执行神经网络程序,有助于设计应用程序原型,以便后续正式产品开发。硬件除了有Coral开发板之外,周边硬件还有一个可通过MIPI界面连结的500万画素相机,和可与其他Linux系统整合使用的外接Coral USB加速器,而软件开发工具方面,主要由TensorFlow与TensorFlow Lite发展而来。

现在Coral研发团队更新Coral的开发工具,编译器更新至2.0版本,新增支持使用训练后量化技术建立的模型。Tensorflow团队提到,训练后量化可以将使用浮点数训练的模型,量化为Int 8的模型,优点除了可以缩小模型大小之外,也可以加快Coral设备中搭载的Edge TPU执行模型运算的速度。

之前,开发者的模型要获得Edge TPU良好的加速效能, 需要使用官方提供的Edge TPU Python API或是C++撰写源代码,不过现在官方发布了TensorFlow Lite委派,让模型即便使用TensorFlow Lite直译器API,也可以得到Edge TPU 的加速。Coral研发团队提到,TensorFlow Lite委派API目前还是个实验性功能,他允许TensorFlow Lite直译器将部分或是全部图执行(Graph Execution)委派给其他执行程序,也就是Edge TPU。

另外,开发工具中的Edge TPU Python函式库也更新到了2.11.1版本,加入了迁移学习(Transfer Learning)的支持。新的设备反向传播API让开发者,可以在图像分类模型的最后一层执行迁移学习,而在设备上是以CPU执行,并以接近即时的速度执行迁移学习,为模型加入迁移学习,开发者不需要重新编译模型。

Coral研发团队也与AutoML团队合作,共同发布了一系列图像分类模型EfficientNet-EdgeTPU,这些模型是基于EfficientNet架构,专为EdgeTPU最佳化,可用超小型的模型达到服务器端模型才能做到的图像分类程度。返回搜狐,查看更多

责任编辑:

声明:该文章版权归原作者所有,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系。
您阅读这篇文章花了0
转发这篇文章只需要1秒钟
喜欢这篇 0
评论一下 0
凯派尔知识产权全新业务全面上线
相关文章
评论
试试以这些内容开始评论吧
登录后发表评论
凯派尔知识产权全新业务全面上线
阿里云创新中心
×
#热门搜索#
精选双创服务
历史搜索 清空

Tel:18514777506

关注微信公众号

创头条企服版APP