本发明公开了一种面向存算一体平台的神经网络编译方法,涉及存算一体领域,包括以下步骤:解析神经网络模型,映射成以计算节点描述的中间表示;进行计算图优化;转换成算子级中间表示;进行算子任务划分并与硬件基本单元绑定;进行算子级优化,减少读取不连续内存的次数和权重映射的次数。本发明根据存算一体计算的特点优化计算流图和神经网络算子,减少图级算子间的中间结果写回的开销,减少了在存算资源不足时需要重新映射权重的次数。 上海交通大学 绳伟光 | 师紧想 | 蒋剑飞 | 景乃锋 | 王琴 | 毛志刚