问:阿里大模型的发布节奏,以及大致水平?
答:阿里巴巴达摩院主要来牵头去做大模型的相关的研究和进展,大概是在22年的时候,我们其实就已经发布了我们自己的这种自然语言理解的大模型,一个叫m6,一个叫plug。M6的话基本是能够支持多模态的这种AI模型,比如说文字生成图片,文字生成语音,文字生成视频这种模型,但是我们大模型相比来讲,GPT3.5这种水平在参数量和整体规模上其实还是要小一点。所以在大模型目前我们这种模型可能也就叫做中模型。
达摩院顶层的领导下达了命令,整个团队约有100个人去开始去做相关大模型的迭代和升级,一方面是自己在复现GPT的水平,一方面是要迭代把我们的m6和plug迭代到能够对标到GPT的水平。目前来看根据我们得到的一些反馈,我们自己的这种m6的一些自然语言理解的能力,目前还不能对标到GPT3.5与GPT3.5大约还得有个一年半左右差距。
所以在我们预计今年在下半年云栖大会上的时候,应该会有m6的一些最新的模型的发布或者是进展,可能大概在GPT2.5左右的水平。
语料积累不足。现有的大型语言模型在文本清洗和筛选方面存在一些限制,因此需要对现有模型进行升级和迭代,以适应不同领域的数据需求。例如,要将模型应用于军事、旅游文化、等领域,需要进行更多的数据收集和人工标注,以达到更高的准确性和效率。同时,大型语言模型的成熟也将带来更多的商业机会,例如在天猫淘宝、高德地图等应用中的搜索和客服机器人等领域。此外,如果大型语言模型足够成熟,可能会释放出API,由合作伙伴接入,从而实现生态层面的垄断。
赵长鹏:删除并下架澳元交易对是由于银行合作伙伴停止合作:5月27日消息,币安创始人赵长鹏在回复用户为什么币安要关闭在澳大利亚的业务及澳元交易对时表示,这不是我们的决定,这是由法币渠道做出的决定,即银行合作伙伴停止与我们合作。没有法币渠道,就无法存取或提取澳元,那么拥有该货币对也就失去了意义和流动性。
此前报道,币安将于北京时间6月1日14:00删除并下架以下现货交易对:ADA/AUD、AUD/BUSD、AUD/USDT、BNB/AUD、BTC/AUD、DOGE/AUD、ETH/AUD、GALA/AUD、MATIC/AUD、SOL/AUD、XRP/AUD。[2023/5/27 9:45:44]
问:预计阿里大模型与文心一言对比?同时您认为制约我们大模型发展的是最主要是这个语料,还是模型一开始的这种路径偏离,您认为哪一个是制约我们发展的一个最重要的原因??
答:我们认为百度做得虽然不是那么智能,但还是相当不错的。在国内,它可能算是第一名。我们认为它还有很大的提升空间。文心一言虽然有一定的实用性,但离达到GPT-3水平还有一定差距。不过,我们觉得它至少可以达到GPT-2.5水平,如果未来能够持续迭代和优化,可能会达到GPT-3.5的水平。数据积累对于百度来说是一个优势,尤其是在搜索领域。百度在知识库方面有很多年的积累,包括百度知道等。与文心一言不同,其模型架构基于Transformer,而文心一言则基于Bert。如何在文心一言的基础上实现更智能的迭代,可能是一个挑战,需要达摩院的同学来解决。
A??lchemy Pay法币支付解决方案现已支持Arbitrum:11月28日,据官方公告,A??lchemy Pay宣布其法币支付解决方案已支持Arbitrum,将向开发者提供插件,使得开发者可以将法币支付渠道集成至应用中。
A??lchemy Pay表示,其目前支持来自173个国家和地区的用户的Mastercard和Visa支付以及欧洲、东南亚和拉丁美洲流行的区域支付系统和电子钱包,此外还支持使用法币直接购买NFT。[2022/11/28 21:07:27]
问:阿里如何后发追上?会采取怎样的打法?
答:我们可以提供的方案主要有两种,一种是我们推出的模型效果相对较好,可以与集团内部的产品结合,例如天猫、淘宝和高德地图的搜索业务。这将为搜索引擎带来更新的商业模式,并取代以前的商业模式。此外,我们还可以输出我们自己的API,并向合作伙伴或渠道商收费。这些合作伙伴将使用我们的API,并体现出他们的客户,这些客户是从ToC端产生的。大多数客户都有自己的APP和网站,这些客户可以通过他们的APP和网站获取流量。不同的客户可以使用不同的API,这意味着厂商可以在生态系统中形成垄断。目前,已有一些厂商尝试将我们的API集成到他们的产品中,但进展不如预期快。对于我们的API,它们可能会在特定领域上有所帮助,例如电商、搜索和推荐,并带来更好的商业模式。
Otherside开发公司Improbable将以33.6亿美元估值进行1.11亿美元新一轮融资:10月3日消息,Yuga Labs元宇宙Otherside背后的开发公司Improbable将进行1.11亿美元(1亿英镑)新一轮融资,致力于为Bored Ape Yacht Club的创建者Yuga Labs等热门Web3公司创建虚拟世界。Improbable首席执行官Herman Narula透露,该公司的新技术已经能支持成千上万的玩家同时进行互动。Improbable最新一轮的估值为33.6亿美元(30亿英镑),高于2018年的28亿美元(25亿英镑)估值。此前报道,区块链游戏公司Improbable于4月宣布旗下新项目M2完成1.5亿美元独立融资,a16z和软银愿景基金领投,M2投后估值为10亿美元。(Decrypt)[2022/10/3 18:38:35]
问:阿里目前AI算力储备情况?
答:阿里国内AI算力储备最多,然后以次为:字节、百度、腾讯。
阿里云现在云上至少应该有上万片的A100了,整体至少能够达到10万片,集团的话应该会是阿里云5倍的这样的一个量级。
达摩院、天猫、淘宝的算力资源都是集团内资源使用。
阿里云这块今年增速会有30-50%。有个别8-9个客户会有复现GPT的需求,提出了大规模AI算力需求,我们以云的方式给。
数据:BTC/USDT现货交易量在6月份增加24.3%至667万枚比特币:7月15日消息,据CryptoCompare数据,BTC/USDT现货交易量在6月份增加24.3%至667万枚比特币,在当前价格走势呈下行趋势后,投资者继续偏爱稳定币资产的安全性。[2022/7/15 2:16:15]
百度年初紧急下单3000台8卡的A800服务器,2.4万张卡,我预计全年百度会有A-H800共5万张的需求。
阿里云需求不会这么多,去年采购2万多,今年可能采购量会下降。预计云上就1万张左右,其中6000张是H800。此外阿里云也会用到平头哥这种自研的,每年大概3000张去采购。
从除此之外,阿里云也会选择国产芯片的一家,看是否在云上商业化。
问:阿里云采购的哪家国产芯片,为何选择?
答:选择的是寒武纪MLU370,主要是性能基本过关(A100的60-70%),检测合格,态度积极,愿意对接,服务贴身。今年会采购大概2000张的水平,主要用在一些CV等小模型的训练或推理上。寒武纪MLU370没有供货的风险,后续的MLU590也许就会有了。
对于壁仞等,宣传上不错,但拿不到实测的卡,流片大约都是今年4-6月,量产半年后。而且壁仞4月要流片的卡,不能支持FP64,互通带宽不支持8卡,支持最多4卡,采用NVbridge方式,达到180GB水平。8卡用PCIe方式只能做到32GB,弱点显著。
Meta元宇宙设备Quest 2遭触觉技术开发公司Immersion专利侵权起诉:金色财经报道,触觉技术开发公司 Immersion 已对 Meta 提起诉讼,指控后者通过侵犯其专利的方式打造了虚拟现实(VR)头戴设备。Immersion 在提交给得克萨斯州韦科联邦法院的一份起诉书中称,Meta Quest 2 侵犯了六项涉及触觉技术的专利,该公司正寻求法院下令阻止 Meta 使用侵权技术并寻求数额不详的赔偿金额。Meta 首席执行官马克·扎克伯格(Mark Zuckerberg)此前承诺每年投入 100 亿美元来实现由 VR 支撑的元宇宙愿景,数据显示,Meta Quest 2 的销量在 2021 年达到 870 万部,是前一年的两倍,占据了 80% 的市场份额。截止目前,Meta 官方尚未就技术侵权诉讼时间发表置评。(law360)[2022/5/29 3:48:20]
针对海光,我们技术人员也有看好的,参数也足够支撑训练,但可能由于海光因产能等因素,可能更侧重满足国有算力那边的需求。同时,集团层面是否对接,不清楚。
问:海光为何会不给样片测试?出于什么考虑?海光DCU的量应该是够的。
答:海光的话,我们确实没有拿到他的样卡,就是不知道为什么,我们也得知很多国产化的订单他们都中标且供货,但我们跟他对接的时候,好像反正是各种各样的问题,就是没有测起来。
我们内部其实也有一些同学是支持海光深算1号的,但是一方面当时寒武纪还没被拉入黑名单,而海光被拉入了黑名单,然后我们其实也有一定的担心,就是在阿里云上了之后,可能会给自己引火烧身,所以这方面也是我们考量的一个因素。最后反正就没采海光后期的供货,可能也会成问题,这也是我们考量的原因之一。
不知道他们是手头是不是比较重要的这种国产化的项目,或者订单的交付还是没有人力来支持。我们也不是特别知道,可能他们团队也就几百个人吧,就是没有这个时间周期。
总体上,在其他国产AI芯片竞争上,海光好像不是很在意这个云上的这个市场。
问:腾讯大模型的进展?
答:有听到是混元这个模型继续迭代,有大概100人左右做GPT复现以及自我模型迭代。应该会比我们的早,猜测大概8月份会出。但应该只是支持文生文的场景。
问:目前降低算力成本的方式?
答:除了大模型,即使stablediffusion这种文生图模型,也消耗较小。stablediffusion模型一直在优化,以前一个推理任务一张A100、现在降级到一个推理任务一张V100。对于阿里这种巨头而言,V100的存货还是很多的。
同时,还会有一些针对模型的优化,或者加速软件,加快模型训练与推理。
最后,也可以对模型进行降级,降低精准度要求,比如从FP16降级为FP8,。
问:阿里目前对于AI大模型是不计成本的大力投入,还是考虑商业落地稳扎稳打?
答:大概率是稳扎稳打,现在拆分后,都要自负盈亏,压力蛮大的。
ChatGPT的一个推理的任务,大概所需要消耗的这个能力是5张A100在2秒钟之内做一次推理,大规模应用起来成本很高,冲击也很大。
问:华为盘古与昇腾如何看?
答:盘古大模型效果有待考证,并没有明确对标GPT,而是往B端去做。
同时因为受限制,只能用自己的昇腾,虽然昇腾910大概也有A100的70%水平,但算力的限制可能会制约大模型发展。
问:从CUDA兼容性角度,海光与寒武纪如何对比?
答:海光的CUDA兼容性更好,除了海光,其实阿里云产的PPU其实也在一定程度上能够做到CUDA兼容,与NV做绑定。
问:360的大模型如何看?
答:我们了解到,最近360向NV下了上千块A800的货。360语料可能比我们强,但最后能做出什么效果,需要时间验证。
问:目前跑在大模型上面的光模块架构会向英伟达推荐的方向去迭代吗?
答:我们不太会去走英伟达的架构,我们有自己的路线,其他大厂可能会走英伟达路线。
阿里云的公有云的层级上面,目前都是采用了阿里云自研的产品叫做DPU。我们自研的DPU其实现在已经迭代了几乎3.0或4.0的状态,支持双口100GB的水平。
那DPU的功能是用于在云上开发弹性裸金属,因为我们要把服务器做成云上的云服务器中间是有一层虚拟化的开发,那虚拟化之后这个物理机上的资源其实是有一定的损耗,CPU的核心数、内存的容量以及网络的带宽、硬盘的这个存储容量都会有所影响。那之所以搞DPU,是为了把这些虚拟化的资源都ofload到DPU上去,使得我们云上的这种云服务器的资源和线下的这种物理机的资源是整体的资源数量是一模一样的,是没有任何变化的。
那DPU的主要功能是在这里,那我们现在研发的第四代的这个DPU,它里面主要集成了ERDMA的这个能力,这个RDMA就是远程内存直接访问的意思,然后其实是主要应用在HPC的这个场景,然后这个E代表的是elastic,我们叫做弹性RDMA这个东西,那它其实是在以太网的架构下去跑ERDMA。也就是说我们希望在以太网的这个网卡、渲染交换机以及这种集群架构上去跑,类似于高性能计算的这种协议,能够把一些高性能计算的场景支持起来。所以我们大概率在公有云的这个场景,不太会去考量像Nvidia提供的这种集群架构,这是公有云的这个方式,从云上讲不支持,光模块数量没有明显增长,阿里网络架构不会改,光模块的规格也不太会改。
但百度云字节火山云可能会采纳英伟达的架构,取决于数量,目前只采纳300台H800,对应每台服务器9张网卡,每个卡一个线,一个线两个光模块,9张网卡一台服务器是18个光模块,300台是5400个光模块,如果集成架构往上扩,扩1000个节点的话,大概是3倍的增长。
问:看好BAT、字节等哪一个大模型?
答:第一还是百度文心,先发优势,其次可能是字节,因为有数据、有算力、有场景。
标签:GPTAUDMETABLECGPT价格SAUDISHIB币ETNA MetabolismSable Finance
DeFi的优势之一是任何人都可以随时随地参与其中,即任何人任何时候都有机会作为DeFi参与者获得收益,甚至获得在传统金融领域很难或不可能获得的收益.
1900/1/1 0:00:00注:本文来自@0xKillTheWolf推特,MarsBit整理如下:如果你有500u,这里有个零风险的白嫖机会。AThreadByBit@Bybit_ZH正在进行2个IDO活动.
1900/1/1 0:00:00我们之前已经讨论过未来数百万个区块链的样子,一些是通用的公链,但其中绝大多数是用于特定的应用程序,即应用链.
1900/1/1 0:00:00注:本文来自@eigenlayer创始人发布长推,MarsBit整理编译如下。菌丝体是一种真菌,有助于连接树木的根,以帮助它们交换营养物质。我们认为这是对再质押的恰当比喻.
1900/1/1 0:00:00你需要知道的@Arbitrum生态近期重要动态#Arbitrum#DeFi$ARB空投发放已经过去了快一个月,虽然空投已发,但生态项目仍然在发展.
1900/1/1 0:00:00聊聊最近炒的比较火的流动性管理赛道。Univ3有两个巨大的创新,一个是集中流动性,可以大大提供资本效率;另一个是可以设置做市费率,为LP提供了更多选择.
1900/1/1 0:00:00