软件层面,在语言层面上,ZK更友好的格式,也会带来加速生成的过程,比如Aleo的Leo语言。再就是算法本身的优化,虽然说有一定的优化空间,但是要想有大的突破需要非常多的时间,毕竟牵涉到很多数学问题。
简单来说,在其他参数相同或者差不多的情况下,内存和带宽综合决定终某个硬件在Aleo项目上的算力大小。
带宽这个概念估计很多人不是很了解,之前只是关注显存,虽然说目前Aleo官方还没有正式公布的PoSW算法,但是从目前的表述来看把NTT/FFT这个漏洞堵上是个必然,而且本身零知识证明算法是对NTT/FFT有要求的。
按照官方的设想和规划未来在Aleo上每天的交易量都是上亿美金的规模,在这样大数据量的要求下,每时每刻都有证明需要被委托出去在极短的时间内完成证明的生产,不可能指望显卡能解决这个问题。就像AI大模型训练一样,早期数据量和参数少的情况下可以用消费级显卡,但是现在更多的都是为AI训练设计的专用芯片和机器。
早在2021年,英伟达就曾公开表示过“禁止使用转换层在其他硬件平台上运行基于CUDA的软件”,2024年3月,英伟达更是将其升级为“CUDA禁令”,直接添加在了CUDA的终用户许可协议中,已禁止用转译层在其他GPU上运行CUDA软件