到这一步,ArtDAO可能会从其他的DAO或者Github上搜索代码,跟自己的代码杂交生成下一代。而这些生成的下一代,可能不仅仅是画图能力产生了变化,还可能会改变ArtDAO的核心目标。“下一代”可能不再把“作画”做为自己的“DAO生”目标,而是其他的什么目标,比如检查软件中的安全漏洞。如果新生的目标有对人类不利的成分,那人类这个物种说不定会被AI DAO淘汰……
AI DAO不是科幻,而是我们已经能在今天构建的事物。
AI是一个强力而危险的技术。DAO们是强力而危险的技术。AI没有的资源,DAO有;DAO没有的自主决策能力,AI有。AI DAO是更强力更危险的技术。
于是在系列的第三篇文章中,Trent继续写到:
AI掌握人类的资源是大趋势,无论是我们拱手相让,还是AI强取豪夺。我们正在将大量金钱投入AI。我们已经在将工厂的生产线、汽车和飞机交给AI。我们为了提升效率,将不同领域的AI合并为通用的高等级AI。我们为了不让某个企业或国家垄断最强力的AI系统,而设计了去中心化的AI DAO。
人类是高消耗低产出的任务处理单元。机器是低消耗高产出的任务处理单元。以效率之名,AI最终会在所有生产行为中“优化”掉人类。
Trent认为AI超越人类的那一天可能比很多人想象得更早(这在一些狭义领域已经实现了,比如围棋大师),并提出四点理由:
- 摩尔定律将继续生效(这是作者的观点)。对于很多AI而言,即使算法没有改良,单纯投入更多的算力(CPU、带宽、存储)就能够变强。
- 资本对AI的青睐已经产生了多方面的影响:小白用户也可以使用深度神经网络得到不错的结果;无监督学习能力的成熟;专用芯片大幅加成AI的效率(从通用芯片 -> GPU -> FPGA -> digital ASIC -> analog ASIC,每一次改进就是10倍的效率提升)。
- DAO的发展程度,已经足以提供让AI自行获取资源的能力。
- AI的发展道路上,并不存在根本性的阻碍。
当区块链遇到大数据
2016年年底,Trent先后撰文两篇,其一是《区块链与大数据》,其二是《区块链与AI》。
在21世纪最初的几年间,互联网规模的大数据方案开始成形:Yahoo的ZooKeeper,Google的BigTable与MapReduce,Facebook的Cassandra,然后是开源的Hadoop文件系统、Hadoop MapReduce、Cassandra等。到2010年前后,MongoDB、Cloudera、DataStax等初创企业又把这些开源的大数据项目做成了商业方案。今天,大数据技术正在静悄悄的改变世界上每一个企业的后端。
Trent认为目前的大数据技术正面临三个关键挑战:
- 控制权。谁控制数据背后的基础架构?数据如何向全球共享?数据的多个版本如何更新?不同区域的管理员指派给谁?数据能否成为像水、电、计算、网络一样高度共享的资源?
- 数据验证。数据生成者如何证明数据是来自这里?数据使用者如何能够信任别人生成的数据?如何应对机器故障造成的数据错误?
- 变现。数据的所有权、使用权如何交易?如何打造一个通用的数据市场?
区块链也是一种数据库,具有三个明显特征:
- 去中心化(每一个管理员控制一个节点,全体管理员共享控制权)
- 数据不变性(全链路各个环节均可用私钥/公钥/哈希进行数据验证,能够更有效的剔除“坏”数据)
- 天生的资产/交易属性
因此,Trent认为区块链能够解决大数据目前面临的挑战——前提是区块链技术要在可扩展性方面有所突破,能够满足海量用户群的写入、读取、查询需求。
当大数据遇到AI
我从90年代开始从事AI研究,当时最常见的研究方式是:拿一个数据集(一般很小,而且数据是固定的),设计一个能提升性能的算法——比如针对SVM的分类器设计一个新内核以减少AUC,然后把这个算法拿去发表。在当时,“可发表”的标准差不多是10%的提升。如果你的算法实现了2倍甚至10倍的提升,那就算得上是“最佳论文”了。
2001年,微软研究员Banko和Brill发布了一篇重要的论文。他们首先描述了自然语言处理领域在当时的状态:通常以不到百万数量的词汇做为数据集,在普通算法(如Naive Bayes / Perceptrons)下有25%的错误率,在一些全新的基于内存的算法下能实现19%的错误率。然而这并不是重点。Banko和Brill的重要发现是:不改算法,只是增加数据集——10倍100倍1000倍的增加,结果是错误率惊人的下降。在1000倍的数据量下,系统的错误率减少至5%以下。更惊奇的是在这个量级的数据集下,老掉牙的50年代Perceptrons算法的表现反而超越了那些基于内存的新算法。