我没细看那篇文章只扫了一遍,但文章中提到了是用的“all analog chip",提到digital NN是说常规的做法。其实只要看起题目及报道中的性能数据也可以猜出来(我知道因我对这方面深层的专业知识较了解),因为如果是用的数字来进行计算及/或存储,它的能耗不可能会比现行最先进的同类产品少4百万倍,速度快3000倍。我上帖中就是强调这种实现方法才是AI芯片的未来,不管是用于光学识别(后面处理),还是通识的AI芯片。另,通用大模型或生成式模型,与GPU不是一类东西。不管是通用大模型还是生成式模型,这只是利用巨量的数据训练出来的一个AI模型 (可看成是软件),而GPU特别是为AI应用目的特出设计的GPU,只是可以用来训练或实现上述模型的硬件。