原标题:Google更新Coral开发平台,支持训练后量化与TF Lite委派
Google更新其人工智能开发平台Coral,不只发布新的编译器版本支持训练后量化(Post-Training Quantization),还加入了TensorFlow Lite委派(Delegate)API,Edge TPU也能够用来加速使用TensorFlow Lite直译器API的模型。
Coral是一个人工智能测试平台,包含了软件以及硬件,开发人员可以在搭载Edge TPU的Coral开发板上建立、训练和执行神经网络程序,有助于设计应用程序原型,以便后续正式产品开发。硬件除了有Coral开发板之外,周边硬件还有一个可通过MIPI界面连结的500万画素相机,和可与其他Linux系统整合使用的外接Coral USB加速器,而软件开发工具方面,主要由TensorFlow与TensorFlow Lite发展而来。
现在Coral研发团队更新Coral的开发工具,编译器更新至2.0版本,新增支持使用训练后量化技术建立的模型。Tensorflow团队提到,训练后量化可以将使用浮点数训练的模型,量化为Int 8的模型,优点除了可以缩小模型大小之外,也可以加快Coral设备中搭载的Edge TPU执行模型运算的速度。
之前,开发者的模型要获得Edge TPU良好的加速效能, 需要使用官方提供的Edge TPU Python API或是C++撰写源代码,不过现在官方发布了TensorFlow Lite委派,让模型即便使用TensorFlow Lite直译器API,也可以得到Edge TPU 的加速。Coral研发团队提到,TensorFlow Lite委派API目前还是个实验性功能,他允许TensorFlow Lite直译器将部分或是全部图执行(Graph Execution)委派给其他执行程序,也就是Edge TPU。
另外,开发工具中的Edge TPU Python函式库也更新到了2.11.1版本,加入了迁移学习(Transfer Learning)的支持。新的设备反向传播API让开发者,可以在图像分类模型的最后一层执行迁移学习,而在设备上是以CPU执行,并以接近即时的速度执行迁移学习,为模型加入迁移学习,开发者不需要重新编译模型。
Coral研发团队也与AutoML团队合作,共同发布了一系列图像分类模型EfficientNet-EdgeTPU,这些模型是基于EfficientNet架构,专为EdgeTPU最佳化,可用超小型的模型达到服务器端模型才能做到的图像分类程度。返回搜狐,查看更多
责任编辑: