优化显卡性能,抵制ASIC,ProgPoW算法到底是什么?

首页    优化显卡性能,抵制ASIC,ProgPoW算法到底是什么?

ProgPoW是一种PoW算法,旨在缩小与专用的ASIC之间的效率差距。它几乎利用了标准硬件(GPU)的所有性能,并预先为以太坊网络中最常见的硬件进行了调整和优化。

algorithm

自从首个比特币挖矿ASIC问世以来就出现了很多新的PoW算法,旨在维持“ASIC抗性”。而所谓的“ASIC抗性”则在于抵制PoW挖矿算力的中心化,防止采用这类算法的币种被少数参与者操控。

本文将首先介绍ProgPoW这个新算法以及其为“ASIC抗性”带来的影响。另外,文章还会分析不同的PoW算法在硬件中的使用状况,并作出比较。最后,我们会通过分析代码来谈一谈ProgPoW的部署方式。

 

简单介绍一下ProgPoW

 


ProgPoW的设计目标就是要让这个算法的需求与显卡相匹配:如果该算法要部署在特定的ASIC上,那么与显卡相比,其效率提升幅度并不大。

ProgPoW的主要特点是:

- 将keccak_f1600(64位字)改为keccak_f800(32位字)来减少对总算力的影响

- 增加混合状态

- 在主循环中添加随机数学序列

- 添加支持随机地址的低延时、小规模的缓存读取

- 将DRAM(动态随机存取存储器)读取从128字节增加到256字节

尽管ASIC也可以部署这个代码,但在效率方面几乎没有任何帮助。大多数显卡都需要支持上述特点。唯一可优化的部分在于:移除图形管线(显示、几何引擎、表面纹理等)以及浮点数学。

这将提高大约1.1-1.2倍的效率,比Ethash(2倍)或者Cryptonight(50倍)要少得多。

 

标准硬件的PoW应用概述

 


随着大型矿池的不断发展,形成了少数矿池控制大量算力的局面,因为只有加入这些矿池,小矿工才能获得更稳定的经济收益。虽然有些人认为大型的集中式矿池违背了“ASIC抗性”,但有一点很重要,即基于ASIC的币种事实上反而更加中心化,原因如下:

1. 不存在自然的分布:除了挖矿之外,这类专业硬件不会创造其它经济目的,因此大多数人不会持有这类硬件。

2. 没有后备组织:当价格波动性较大以及容易受到操控的时候,没有后备的硬件或者利益相关方可以入场。

3. 准入门槛较高:入场较早的矿工已经非常富有,他们可以在未知的新币种上投入资金和生态资源。因此,通过挖矿进行的初始代币分配存在局限性,可能导致中心化的“经济偏差”。

4. 委托中心化 VS 部署中心化:虽然矿池的中心化是用户委托造成的,但硬件的单一化则不是:只有这种硬件的特定买家才能参与挖矿,因此不可能在短时间内剥夺矿池的控制权。

5. 即使采用去中心化的挖矿方式,也很难实现去中心化的控制:一旦大型ASIC制造商参与进来,设计后门硬件就变得毫无意义。在市场中保证透明和公平对ASIC制造商来说没有任何好处。

尽管维持“ASIC抗性”的这一目标是非常有价值的,但“ASIC抗性”这个概念是存在谬误的。CPU(中央处理器)和GPU(显卡)本身就是ASIC。理论上来说,任何可以在商用ASIC(CPU或GPU)上运作的算法都能够部署特定的ASIC。部分算法甚至被刻意做成是“ASIC友好型”——部署ASIC后的挖矿效率远远高于运行普通硬件的同类算法。这一现象对于专业的ASIC矿机制造商来说极具吸引力。

因此,ASIC抗性指的是:专业的硬件和普及度及应用度更高的硬件之间的效率差距。定制和通用硬件之间的效率差越小就意味着抗性越强,算法也就越好。这种效率差是衡量PoW算法质量的合理标准。效率意味着绝对的性能、效能功耗比或者性价比——这几点之间都是高度相关的。如果一家公司生产且控制的ASIC效率极高,那么他们就能够控制51%的网络算力,就很可能发动攻击。

 

PoW算法一览

 


SHA256(部署ASIC后挖矿效率增长约1000倍)

SHA算法是一系列的简单数学运算——加法、逻辑和旋转运算。

处理CPU或GPU的单点运算需要获取并解码一条指令,从寄存器文件中获取数据,执行这条指令,然后把结果写到寄存器文件中。这个过程需要大量的时间和资源。

在ASIC中实现的单点运算需要少量的晶体管和导线。这意味着每个单独的操作只需要消耗极少的功率、空间或时间。通过列出所需操作的序列就可以构建散列核心(hashing core)。

这个散列核心可以在短时间内执行操作序列,与CPU和GPU相比,所需消耗的功率和空间也更少。比特币ASIC由许多相同的散列核心和一些最小的芯片外通信组成。

Scrypt和NeoScrypt(部署ASIC后挖矿效率增长约1000倍)

从算法和位操作上来看,Scrypt和NeoScrypt与SHA类似。不幸的是,采用这类算法的币种,例如莱特币,他们的PoW挖矿算法只使用一种容量介于32kb和128kb之间的暂存器。这个暂存器的容量非常小,非常适合ASIC,因此这个算法的ASIC部署与SHA类似,都会造成效率的大幅提升。

X11和X16R(部署ASIC后挖矿效率增长约1000倍)

X11(以及类似的X系列)要求11个独一无二的散列核心以固定的顺序排列。每个散列核心的效率都和单个SHA核心类似,因此从总体设计上来看,两者的效率增长依然类似。

X16R要求多个散列核心通过简单定序状态机进行互动。每个单独的核心都会有类似的效率增长,测序逻辑将花费最少的功率、空间以及时间。

Baikal BK-X就是一种包含多个散列核心以及一个可编程定序器的ASIC,其已经进行了升级以支持哈希排列顺序不同的新算法。

Equihash(部署ASIC后挖矿效率增长约100倍)

150mb的状态(state)很大,但是通过ASIC是有可能实现的。通过ASIC可以快速完成位串的读出(binning)、排序和对比。

Cuckoo Cycle(部署ASIC后挖矿效率增长约100倍)

一旦发生时间/内存权衡攻击(Time/Memory Tradeoff attacks),芯片所需状态量就不明确了。一个专业的图遍历(graph traversal)核心和SHA计算核心的效率增长类似。

CryptoNight(部署ASIC后挖矿效率增长约50倍)

与Scrypt相比,CryptoNight做的计算要少得多,需要2mb的暂存器(没有已知的时间/内存权衡攻击)。这个大容量的暂存器将会主导ASIC部署,限制散列核心的数量以及ASIC的绝对性能。ASIC几乎完全由片上SRAM(静态随机存储器)组成。

Ethash(部署ASIC后挖矿效率增长约2倍)

由于大容量DAG(数据库可用性组)的存在,Ethash需要外部存储。然而,它只需要这一点——需要对内存加载结果进行计算的情况很少。因此,ASIC可以从一定程度上消除GPU的复杂性和能耗,只需要形成一个连接到小型计算引擎的内存接口。

 

ProgPoW算法演练

 


这里生成的DAG和Ethash中的完全一样。唯一的区别是生成了额外的PROGPOW_SIZE_CACHE值的数据,这些数据将驻留在L1缓存中,而不是在framebuffer(帧缓存)中。

ProgPoW可以采用以下参数进行调试,相关设置已经针对一系列通用GPU进行了调整:

PROGPOW_LANES:为计算一个散列实例而协调的平行行数;默认值为32

PROGPOW_REGS:寄存器文件的使用大小;默认值是16

PROGPOW_CACHE_BYTES:缓存器容量;默认值是16*1024

PROGPOW_CNT_MEM:帧缓冲器访问的次数,定义为算法的外部循环;默认值是64(和Ethash一样)

PROGPOW_CNT_CACHE:每个循环的缓存访问次数;默认值是8

PROGPOW_CNT_MATH:每个循环的数学运算次数;默认值是8

ProgPoW用FNV1a来合并数据。Ethash用FNV1来合并数据,但FNV1a能够实现更好的分布特性。

ProgPoW用KISS99生成随机数。这是最简单的(最少指令)随机数生成器,通过了TestU01统计测试。像Mersenne Twister这样更复杂的随机数生成器可以在专用ASIC实现有效部署,从而提高挖矿效率。

uint32_t fnv1a(uint32_t &h, uint32_t d) { return h = (h ^ d) * 0x1000193; } typedef struct { uint32_t z, w, jsr, jcong; } kiss99_t; // KISS99 is simple, fast, and passes the TestU01 suite // https://en.wikipedia.org/wiki/KISS_(algorithm) // http://www.cse.yorku.ca/~oz/marsaglia-rng.html uint32_t kiss99(kiss99_t &st) { uint32_t znew = (st.z = 36969 * (st.z & 65535) + (st.z >> 16)); uint32_t wnew = (st.w = 18000 * (st.w & 65535) + (st.w >> 16)); uint32_t MWC = ((znew << 16) + wnew); uint32_t SHR3 = (st.jsr ^= (st.jsr << 17), st.jsr ^= (st.jsr >> 13), st.jsr ^= (st.jsr << 5)); uint32_t CONG = (st.jcong = 69069 * st.jcong + 1234567); return ((MWC^CONG) + SHR3); }

混合数据的lane *REGS是从散列的种子进行初始化的。

void fill_mix( uint64_t hash_seed, uint32_t lane_id, uint32_t mix[PROGPOW_REGS] ) { // Use FNV to expand the per-warp seed to per-lane // Use KISS to expand the per-lane seed to fill mix uint32_t fnv_hash = 0x811c9dc5; kiss99_t st; st.z = fnv1a(fnv_hash, seed); st.w = fnv1a(fnv_hash, seed >> 32); st.jsr = fnv1a(fnv_hash, lane_id); st.jcong = fnv1a(fnv_hash, lane_id); for (int i = 0; i < PROGPOW_REGS; i++) mix[i] = kiss99(st); }

主要的搜索算法采用了Keccak海绵函数(宽度为800位,448比特率和352的容量)来生成一个种子,扩展种子,并在混合数据过程中加载序列和进行随机运算,然后压缩结果到最终的Keccak排列(参数相同)进行目标比较。

bool progpow_search( const uint64_t prog_seed, const uint64_t nonce, const hash32_t header, const uint64_t target, const uint64_t *g_dag, // gigabyte DAG located in framebuffer const uint64_t *c_dag // kilobyte DAG located in l1 cache ) { uint32_t mix[PROGPOW_LANES][PROGPOW_REGS]; uint32_t result[8]; for (int i = 0; i < 8; i++) result[i] = 0; // keccak(header..nonce) uint64_t seed = keccak_f800(header, nonce, result); // initialize mix for all lanes for (int l = 0; l < PROGPOW_LANES; l++) fill_mix(seed, l, mix); // execute the randomly generated inner loop for (int i = 0; i < PROGPOW_CNT_MEM; i++) progPowLoop(prog_seed, i, mix, g_dag, c_dag); // Reduce mix data to a single per-lane result uint32_t lane_hash[PROGPOW_LANES]; for (int l = 0; l < PROGPOW_LANES; l++) { lane_hash[l] = 0x811c9dc5 for (int i = 0; i < PROGPOW_REGS; i++) fnv1a(lane_hash[l], mix[l][i]); } // Reduce all lanes to a single 128-bit result for (int i = 0; i < 8; i++) result[i] = 0x811c9dc5; for (int l = 0; l < PROGPOW_LANES; l++) fnv1a(result[l%8], lane_hash[l]) // keccak(header .. keccak(header..nonce) .. result); return (keccak_f800(header, seed, result) <= target); }

内循环采用FNV和KISS99从prog_seed生成随机序列。这个随机序列决定访问哪个混合状态以及执行什么随机运算。由于对prog_seed的更改相对较少,因此可以预料到的是,在挖矿过程中将会编译progPowLoop,而不是进行动态执行。

kiss99_t progPowInit(uint64_t prog_seed, int mix_seq[PROGPOW_REGS]) { kiss99_t prog_rnd; uint32_t fnv_hash = 0x811c9dc5; prog_rnd.z = fnv1a(fnv_hash, prog_seed); prog_rnd.w = fnv1a(fnv_hash, prog_seed >> 32); prog_rnd.jsr = fnv1a(fnv_hash, prog_seed); prog_rnd.jcong = fnv1a(fnv_hash, prog_seed >> 32); // Create a random sequence of mix destinations for merge() // guaranteeing every location is touched once // Uses Fisher–Yates shuffle for (int i = 0; i < PROGPOW_REGS; i++) mix_seq[i] = i; for (int i = PROGPOW_REGS - 1; i > 0; i--) { int j = kiss99(prog_rnd) % (i + 1); swap(mix_seq[i], mix_seq[j]); } return prog_rnd; }

将数值合并到混合数据中的数学运算是为了保持熵。

// Merge new data from b into the value in a // Assuming A has high entropy only do ops that retain entropy // even if B is low entropy // (IE don't do A&B) void merge(uint32_t &a, uint32_t b, uint32_t r) { switch (r % 4) { case 0: a = (a * 33) + b; break; case 1: a = (a ^ b) * 33; break; case 2: a = ROTL32(a, ((r >> 16) % 32)) ^ b; break; case 3: a = ROTR32(a, ((r >> 16) % 32)) ^ b; break; } }

为随机数学选择的数学运算在CUDA和OpenCL(通用GOU的两种主要编程语言)中易于实现。

// Random math between two input values uint32_t math(uint32_t a, uint32_t b, uint32_t r) { switch (r % 11) { case 0: return a + b; case 1: return a * b; case 2: return mul_hi(a, b); case 3: return min(a, b); case 4: return ROTL32(a, b); case 5: return ROTR32(a, b); case 6: return a & b; case 7: return a | b; case 8: return a ^ b; case 9: return clz(a) + clz(b); case 10: return popcount(a) + popcount(b); } }

主循环:

// Helper to get the next value in the per-program random sequence #define rnd() (kiss99(prog_rnd)) // Helper to pick a random mix location #define mix_src() (rnd() % PROGPOW_REGS) // Helper to access the sequence of mix destinations #define mix_dst() (mix_seq[(mix_seq_cnt++)%PROGPOW_REGS]) void progPowLoop( const uint64_t prog_seed, const uint32_t loop, uint32_t mix[PROGPOW_LANES][PROGPOW_REGS], const uint64_t *g_dag, const uint32_t *c_dag) { // All lanes share a base address for the global load // Global offset uses mix[0] to guarantee it depends on the load result uint32_t offset_g = mix[loop%PROGPOW_LANES][0] % DAG_SIZE; // Lanes can execute in parallel and will be convergent for (int l = 0; l < PROGPOW_LANES; l++) { // global load to sequential locations uint64_t data64 = g_dag[offset_g + l]; // initialize the seed and mix destination sequence int mix_seq[PROGPOW_REGS]; int mix_seq_cnt = 0; kiss99_t prog_rnd = progPowInit(prog_seed, mix_seq); uint32_t offset, data32; int max_i = max(PROGPOW_CNT_CACHE, PROGPOW_CNT_MATH); for (int i = 0; i < max_i; i++) { if (i < PROGPOW_CNT_CACHE) { // Cached memory access // lanes access random location offset = mix[l][mix_src()] % PROGPOW_CACHE_WORDS; data32 = c_dag[offset]; merge(mix[l][mix_dst()], data32, rnd()); } if (i < PROGPOW_CNT_MATH) { // Random Math data32 = math(mix[l][mix_src()], mix[l][mix_src()], rnd()); merge(mix[l][mix_dst()], data32, rnd()); } } // Consume the global load data at the very end of the loop // Allows full latency hiding merge(mix[l][0], data64, rnd()); merge(mix[l][mix_dst()], data64>>32, rnd()); } }


2018年9月25日 19:50
收藏