薛定谔的熊猫10星评价
2020-11-02 13:34:19
目的:对于有经常需要进行读取,少量进行修改的重要数据,为了避免单点故障和简化数据同步备份问题,可以使用私有区块链技术进行数据的一致性保证和多点同步。
要点:
适合的场景: 很多重要数据,都具有多读少修改的特点。 如用户名/密码的登录口令管理,基于时间的双因子认证信息。(增加例子)
区块链的核心技术:
1.基于HASH的链式结构,保证修改必须对链上的所有数据重新进行计算
2.基于时间的单向性,如果携带时戳,则可以通过时戳保证数据的时间次序
3.共识。本技术采用的是私有链,默认所有的节点是可信的(可以通过节点证书的方法实现可信)。共识采用的是所有人可信,最后修改数据有效的策略。采用此项策略的考虑:需要修改的操作一般只会连接到一个节点,这样修改可以通过区块链的同步技术扩散到所有的节点,最终形成共识。如果出现同时连接到两个节点并且都进行了修改,则其时间不会一样,会同时出现在区块链上,但修改会以最后的修改为准。
4.数据修改策略:共识后修改和先修改再共识。我们采用先修改再共识的方法。好处,弱同步要求,在网络不好时,可以继续操作,但最后会进行同步;效率高,不需要完全同步后返回。缺点:可能会出现数据不是客户想要的最终数据,这点可以通过客户单点修改登录的技术实现。另外,数据错误是偶发和可修复的。
实现方法:websocket
采用websocket技术。
薛定谔不养猫3星评价
2020-10-23 13:41:07
理论上每个节点都会收到全部的历史,所以是不是去中心化其实是降低了效率,增加了网络总负荷?
把区块链理解为一个分布式的数据库,是不是可以理解为 每个transaction都是一个global locking的写入, 每个验证都是一个全网的查询?区块链其实是变相的以效率为代价换取了安全性?
首先,解决的关键不是网络分布问题,而是硬件问题,简单来说,就是内存制造的普及性问题。
5G、6G目前没什么用,用2块SSD硬盘对拷贝,极速也就是100M的左右,什么1秒下载1部蓝光不知道过几年能实现,500G,SSD要1千多块,不要以为硬盘不要钱啊
几百万条数据可以解决不是问题,几千万条记录以上几乎解决不了,这个就是100多G,几亿数据需要1T多,要下载完都费劲,还要同步插入数据,那硬盘受不了。亿级数据更受不了,服务器E3 E5 配个32/64G内存,SQL2008极致优化都够呛。
区块链一直觉得是个伪命题。到底什么记录需要一大堆个人电脑重复记录这些东西???什么记录伪造的可能性这么大???真到了世界大战,谁还在乎那点公益数据?
公司企业直接同步备份数据就可以了,不会丢失,银行的数据也是有单条速度防伪的,假如可以直接修改银行余额,直接改结果不行的,内部伪造不了。