原创编译:BlockTurbo
过去两周,生成式人工智能(AI)领域是毫无疑问的热点,突破性的新版本和尖端集成不断涌现。OpenAI发布了备受期待的GPT-4模型,Midjourney发布了最新的V5模型,Stanford发布了Alpaca7B语言模型。与此同时,谷歌在其整个Workspace套件中推出了生成式人工智能,Anthropic推出了其人工智能助手Claude,而微软则将其强大的生成式人工智能工具Copilot集成到了Microsoft365套件中。
随着企业开始意识到人工智能和自动化的价值以及采用这些技术以保持市场竞争力的必要性,人工智能开发和采用的步伐愈发加快。
尽管人工智能发展看似进展顺利,但仍有一些潜在的挑战和瓶颈需要解决。随着越来越多的企业和消费者接受人工智能,计算能力方面的瓶颈正在出现。人工智能系统所需的计算量每隔几个月就会翻一番,而计算资源的供应却难以跟上步伐。此外,训练大规模人工智能模型的成本持续飙升,过去十年每年增长约3100%。
开发和训练尖端人工智能系统所需的成本上升和资源需求增加的趋势正在导致集中化,只有拥有大量预算的实体才能进行研究和生产模型。然而,一些基于加密技术的项目正在构建去中心化解决方案,以使用开放计算和机器智能网络解决这些问题。
人工智能和机器学习基础
AI领域可能令人望而生畏,深度学习、神经网络和基础模型等技术术语增加了其复杂性。现在,就让我们简化这些概念以便于理解。
人工智能是计算机科学的一个分支,涉及开发算法和模型,使计算机能够执行需要人类智能的任务,例如感知、推理和决策制定;
Chaos Labs 与 Uniswap基金会合作推出Uniswap V3 TWAP预言机风险门户网站:5月26日消息,区块链风险分析公司 Chaos Labs 与 Uniswap 基金会合作推出 Uniswap V3 TWAP 预言机风险门户网站,该网站强调了 V3 池中 TWAP 操纵的实时成本。该 TWAP 市场风险应用程序利用资金池数据(包括流动性深度和耗尽价格)对所有 V3 资金池和部署的实时操纵风险进行量化,用户可以查看所有池中的操纵成本。该门户将实时集中的流动性分配纳入量化操纵成本,并量化了移动当前现货价格的资本要求以及量化在 30 分钟窗口内移动 TWAP 的资本要求,允许用户模拟额外的流动性在特定时段内如何增加操纵的资本需求。[2023/5/26 9:44:19]
机器学习(ML)是AI的一个子集,它涉及训练算法以识别数据中的模式并根据这些模式进行预测;
深度学习是一种涉及使用神经网络的ML,神经网络由多层相互连接的节点组成,这些节点协同工作以分析输入数据并生成输出。
基础模型,例如ChatGPT和Dall-E,是经过大量数据预训练的大规模深度学习模型。这些模型能够学习数据中的模式和关系,使它们能够生成与原始输入数据相似的新内容。ChatGPT是一种用于生成自然语言文本的语言模型,而Dall-E是一种用于生成新颖图像的图像模型。
AI和ML行业的问题
人工智能的进步主要由三个因素驱动:
算法创新:研究人员不断开发新的算法和技术,让人工智能模型能够更高效、更准确地处理和分析数据。
数据:人工智能模型依赖大型数据集作为训练的燃料,使它们能够从数据中的模式和关系中学习。
Blockchain.com 已收购 Altonomy 的场外交易平台 OTC Desk:金色财经消息,加密钱包和交易平台 Blockchain.com 已收购加密货币金融服务商 Altonomy 的场外交易平台OTC Desk,具体交易条款未披露,目前已将 Altonomy 的核心系统与 Blockchain.com 的场外交易能力进行集成,旨在扩展 Blockchain.com 在竞争币方面的加密场外交易网络。据了解,Altonomy 成立于 2018 年,专门从事竞争币的做市和场外交易。(coindesk)[2022/3/22 14:10:04]
计算:训练AI模型所需的复杂计算需要大量的计算处理能力。
然而,有两个主要问题阻碍了人工智能的发展。回到2021年,获取数据是人工智能企业在人工智能发展过程中面临的首要挑战。去年,与计算相关的问题超越了数据成为挑战,特别是由于高需求驱动下无法按需访问计算资源。
第二个问题与算法创新效率低下有关。虽然研究人员通过在以前的模型的基础上继续对模型进行增量改进,但这些模型提取的智能或模式总是会丢失。
让我们更深入地研究这些问题。
计算瓶颈
训练基础机器学习模型需要大量资源,通常需要长时间使用大量GPU。例如,Stability.AI需要在AWS的云中运行4,000个NvidiaA100GPU来训练他们的AI模型,一个月花费超过5000万美元。另一方面,OpenAI的GPT-3使用1,000个NvidiaV100GPU进行训练,耗资1,200万美元。
人工智能公司通常面临两种选择:投资自己的硬件并牺牲可扩展性,或者选择云提供商并支付高价。虽然大公司有能力选择后者,但小公司可能没有那么奢侈。随着资本成本的上升,初创公司被迫削减云支出,即使大型云提供商扩展基础设施的成本基本保持不变。
刘昌用:对BCHA的空块攻击已于29日停止 内存池粉尘交易也清理完毕:11月30日,知密大学创始人刘昌用发微博称,28日-29日,包括viabtc、ming-dutch在内至少6个矿工参与了对BCHA的防御。攻击已经很难成功。29日中午11点,对BCHA的空块攻击停止,662447高度开始正常出块;下午6点,在662462高度,内存池的粉尘交易清理完毕。与此同时,针对矿工对BCHA发起的空块攻击,刘昌用在与微博网友互动时表示,不怕攻击,防守方正常挖矿就行。其实,用机池会更好些,隔两个小时过来扫一波,把正常交易打包了,同时把垃圾交易的交易费收了,然后撤走,把高难度留给攻击者。不演练不知道,机池还能有这么正义的作用。[2020/11/30 22:35:17]
人工智能的高昂计算成本给追求该领域进步的研究人员和组织造成了重大障碍。目前,迫切需要一种经济实惠的按需无服务器计算平台来进行ML工作,这在传统计算领域是不存在的。幸运的是,一些加密项目正在致力于开发可以满足这一需求的去中心化机器学习计算网络。
效率低下和缺乏协作
越来越多的人工智能开发是在大型科技公司秘密进行的,而不是在学术界。这种趋势导致该领域内的合作减少,例如微软的OpenAI和谷歌的DeepMind等公司相互竞争并保持其模型的私密性。
缺乏协作导致效率低下。例如,如果一个独立的研究团队想要开发一个更强大的OpenAI的GPT-4版本,他们将需要从头开始重新训练模型,基本上是重新学习GPT-4训练的所有内容。考虑到仅GPT-3的培训成本就高达1200万美元,这让规模较小的ML研究实验室处于劣势,并将人工智能发展的未来进一步推向大型科技公司的控制。
BCH正式完成硬分叉后,BCHA首次达到硬分叉区块高度:据BTC.com BCH硬分叉倒计时页面显示,BCH在区块高度661647时开始硬分叉升级。截止北京时间11月15日23:55,BCHA首次达到硬分叉区块高度661648。BCHN当前区块高度为661665,领先BCHA17个区块。[2020/11/16 20:54:06]
但是,如果研究人员可以在现有模型的基础上构建而不是从头开始,从而降低进入壁垒;如果有一个激励合作的开放网络,作为一个自由市场管理的模型协调层,研究人员可以在其中使用其他模型训练他们的模型,会怎么样呢?去中心化机器智能项目Bittensor就构建了这种类型的网络。
机器学习的分散式计算网络
去中心化计算网络通过激励CPU和GPU资源对网络的贡献,将寻求计算资源的实体连接到具有闲置计算能力的系统。由于个人或组织提供其闲置资源没有额外成本,因此与中心化提供商相比,去中心化网络可以提供更低的价格。
存在两种主要类型的分散式计算网络:通用型和专用型。通用计算网络像分散式云一样运行,为各种应用程序提供计算资源。另一方面,特定用途的计算网络是针对特定用例量身定制的。例如,渲染网络是一个专注于渲染工作负载的专用计算网络。
尽管大多数ML计算工作负载可以在分散的云上运行,但有些更适合特定用途的计算网络,如下所述。
机器学习计算工作负载
机器学习可以分为四种主要的计算工作负载:
动态 | Blockchain.com日交易量于过去三年下降了50%:据Longhash 5月28日消息,Blockchain.com钱包日交易量于过去三年下降了50%,2015年Blockchain.com钱包负责比特币网络中超过一半以上的交易,但目前该数字已经跌至20%左右。Blockchain.com钱包所负责的交易在比特币网络交易中所占的份额在2016年急剧下降,从1月份的48.62%下降到7月份的24.94%。其原因可能是2015年比特币核心加入了动态费用估算机制,而该钱包对这一制度无法应对,于2016年3月才实现动态费用估算功能。而竞争对手则在2015年7月就推出了解决方案。[2019/5/29]
数据预处理:准备原始数据并将其转换为ML模型可用的格式,这通常涉及数据清理和规范化等活动。
训练:机器学习模型在大型数据集上进行训练,以学习数据中的模式和关系。在训练期间,调整模型的参数和权重以最小化误差。
微调:可以使用较小的数据集进一步优化ML模型,以提高特定任务的性能。
推理:运行经过训练和微调的模型以响应用户查询进行预测。
数据预处理、微调和推理工作负载非常适合在Akash、Cudos或iExec等去中心化云平台上运行。然而,去中心化存储网络Filecoin由于其最近的升级而特别适合数据预处理,从而启用了Filecoin虚拟机。FVM升级可以对存储在网络上的数据进行计算,为已经使用它进行数据存储的实体提供更高效的解决方案。
机器学习专用计算网络
由于围绕并行化和验证的两个挑战,训练部分需要一个特定用途的计算网络。
ML模型的训练依赖于状态,这意味着计算的结果取决于计算的当前状态,这使得利用分布式GPU网络变得更加复杂。因此,需要一个专为ML模型并行训练而设计的特定网络。
更重要的问题与验证有关。要构建信任最小化的ML模型训练网络,网络必须有一种方法来验证计算工作,而无需重复整个计算,否则会浪费时间和资源。
Gensyn
Gensyn是一种特定于ML的计算网络,它已经找到了以分散和分布式方式训练模型的并行化和验证问题的解决方案。该协议使用并行化将较大的计算工作负载拆分为任务,并将它们异步推送到网络。为了解决验证问题,Gensyn使用概率学习证明、基于图形的精确定位协议以及基于抵押和削减的激励系统。
尽管Gensyn网络尚未上线,但该团队预测其网络上V100等效GPU的每小时成本约为0.40美元。这一估计是基于以太坊矿工在Merge之前使用类似GPU每小时赚取0.20至0.35美元。即使这个估计有100%的偏差,Gensyn的计算成本仍将大大低于AWS和GCP提供的按需服务。
Together
Together是另一个专注于构建专门用于机器学习的去中心化计算网络的早期项目。在项目启动之初,Together开始整合来自斯坦福大学、苏黎世联邦理工学院、OpenScienceGrid、威斯康星大学麦迪逊分校和CrusoeCloud等不同机构未使用的学术计算资源,从而产生总计超过200PetaFLOP的计算能力。他们的最终目标是通过汇集全球计算资源,创造一个任何人都可以为先进人工智能做出贡献并从中受益的世界。
Bittensor:去中心化机器智能
Bittensor解决了机器学习中的低效率问题,同时通过使用标准化的输入和输出编码来激励开源网络上的知识生产,从而改变研究人员的协作方式,以实现模型互操作性。
在Bittensor上,矿工因通过独特的ML模型为网络提供智能服务而获得网络的本地资产TAO的奖励。在网络上训练他们的模型时,矿工与其他矿工交换信息,加速他们的学习。通过抵押TAO,用户可以使用整个Bittensor网络的智能并根据他们的需要调整其活动,从而形成P2P智能市场。此外,应用程序可以通过网络的验证器构建在网络的智能层之上。
Bittensor是如何工作的
Bittensor是一种开源P2P协议,它实现了分散的专家混合(MoE),这是一种ML技术,结合了专门针对不同问题的多个模型,以创建更准确的整体模型。这是通过训练称为门控层的路由模型来完成的,该模型在一组专家模型上进行训练,以学习如何智能地路由输入以产生最佳输出。为实现这一目标,验证器动态地在相互补充的模型之间形成联盟。稀疏计算用于解决延迟瓶颈。
Bittensor的激励机制吸引了专门的模型加入混合体,并在解决利益相关者定义的更大问题中发挥利基作用。每个矿工代表一个独特的模型,Bittensor作为模型的自我协调模型运行,由未经许可的智能市场系统管理。
该协议与算法无关,验证者只定义锁并允许市场找到密钥。矿工的智能是唯一共享和衡量的组成部分,而模型本身仍然是私有的,从而消除了衡量中的任何潜在偏见。
验证者
在Bittensor上,验证器充当网络MoE模型的门控层,充当可训练的API并支持在网络之上开发应用程序。他们的质押支配着激励格局,并决定了矿工要解决的问题。验证者了解矿工提供的价值,以便相应地奖励他们并就他们的排名达成共识。排名较高的矿工获得更高份额的通货膨胀区块奖励。
验证者也被激励去诚实有效地发现和评估模型,因为他们获得了他们排名靠前的矿工的债券,并获得了他们未来奖励的一部分。这有效地创造了一种机制,矿工在经济上将自己“绑定”到他们的矿工排名。该协议的共识机制旨在抵制高达50%的网络股份的串通,这使得不诚实地对自己的矿工进行高度排名在财务上是不可行的。
矿工
网络上的矿工接受训练和推理,他们根据自己的专业知识有选择地与同行交换信息,并相应地更新模型的权重。在交换信息时,矿工根据他们的股份优先处理验证者请求。目前有3523名矿工在线。
矿工之间在Bittensor网络上的信息交换允许创建更强大的AI模型,因为矿工可以利用同行的专业知识来改进他们自己的模型。这实质上为AI空间带来了可组合性,不同的ML模型可以在其中连接以创建更复杂的AI系统。
复合智能
Bittensor通过新市场解决激励低效问题,从而有效地实现机器智能的复合,从而提高ML培训的效率。该网络使个人能够为基础模型做出贡献并将他们的工作货币化,无论他们贡献的规模或利基如何。这类似于互联网如何使利基贡献在经济上可行,并在YouTube等内容平台上赋予个人权力。本质上,Bittensor致力于将机器智能商品化,成为人工智能的互联网。
总结
随着去中心化机器学习生态系统的成熟,各种计算和智能网络之间很可能会产生协同效应。例如Gensyn和Together可以作为AI生态的硬件协调层,而Bittensor可以作为智能协调层。
在供应方面,以前开采ETH的大型公共加密矿工对为去中心化计算网络贡献资源表现出极大的兴趣。例如,在他们的网络GPU发布之前,Akash已经从大型矿工那里获得了100万个GPU的承诺。此外,较大的私人比特币矿工之一的Foundry已经在Bittensor上进行挖矿。
本报告中讨论的项目背后的团队不仅仅是为了炒作而构建基于加密技术的网络,而是AI研究人员和工程师团队,他们已经意识到加密在解决其行业问题方面的潜力。
通过提高训练效率、实现资源池化并为更多人提供为大规模AI模型做出贡献的机会,去中心化ML网络可以加速AI发展,让我们在未来更快解锁通用人工智能。
灵魂绑定代币,自2022年由以太坊创始人VitalikButerin提出以来,一直备受行业关注,其未来巨大的潜力和广泛的应用场景吸引到了众多从业者入场.
1900/1/1 0:00:00Swapix上线PixLoot功能,用于将Tether转换为巴西雷亚尔SmartPay提出了Swapix解决方案,用于使用Pix在Tether和巴西雷亚尔之间发送和转换.
1900/1/1 0:00:00研究以太坊经济的复杂性揭示了最大可提取价值(MEV)供应链的迷人之处。这个复杂的交互网络,特别是在当前PBS方案下的构建者和验证者之间,可以通过下面的桑基图进行探索.
1900/1/1 0:00:00Coinbase在加密货币领域的收购举动越来越频繁。继上周五宣布收购电子以太坊钱包CipherBrowser后,Coinbase又宣布收购Earn.com.
1900/1/1 0:00:00加密猫的新花样,你买单吗?据coindesk5月7日报道,以太猫公司的负责人CatyTedman表示,将发布以金州勇士队的明星史蒂芬·库里形象设计的以太猫.
1900/1/1 0:00:00投票治理大家都很熟悉,源自Curve推出的veTokenomic模型,在该模型中,用户必须将其治理token按照一定期限锁定为veToken间.
1900/1/1 0:00:00