3月29日,非营利组织“未来生命研究所”发表了一封题为“暂停巨型AI实验”的公开信,呼吁全球的AI实验室暂停训练比GPT-4更强大的系统至少6个月,并在此期间开发出一份针对AI的共享安全协议,必要时需要政府介入。?
1000多名科技人士在这份公开信上签名,包括特斯拉CEO马斯克、StabilityAI?的CEOEmadMostaque等企业掌门人,也包括Alphabet旗下DeepMin的研究人员,还有诸如图灵奖得主YoshuaBengio这样的重量级学者。当然,也有人表达了不同意见,认为这是在阻碍技术进步。
开发出GPT-4模型的OpenAI公司内还没有人签名,该公司目前也没有对这封公开信予以回应。但我们向卷入纷争中的ChatGPT要了个回应。
这个AI自然语言大模型产品倒是表现出了善解人意的一面:暂停实验存在合理性,但需要谨慎考虑这么做带来的技术发展滞后问题。它还给出了关于AI的六大风险和十个管理制度建议。
人类精英:暂停实验确立规则
截至今日,挂在“未来生命研究所“官网上的《暂停巨型AI实验》公开信,已经收集了1130人的签字,名单里精英云集,不乏特斯拉、苹果等科技公司的高管,也有政客和作家,当年,更多的是全球多所高校的教授以及人工智能领域的专家。??????
OpenAI CEO等350名AI行业人士签署公开信 警告AI或给人类带来“灭绝风险”:5月30日消息,350位AI行业的高管、研究人员和工程师日前签署了一封公开信,表示担忧AI技术将对人类带来生存威胁。这封信由位于非营利组织人工智能安全中心发布,其中仅有一句话:“降低人工智能带来的灭绝风险应该成为一个全球优先事项,与大流行病、核战争等其他社会规模的风险并列。”
OpenAI首席执行官Sam Altman、Google DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei三位AI公司高管,以及2018年图灵奖得主Geoffrey Hinton、Yoshua Bengio已签署这封信。[2023/5/31 11:49:05]
那么精英云集签字的这封公开信到底说了什么?以下是这封信的全文
广泛的研究表明,具有能与人类竞争的智能的AI系统会对社会和人类构成深刻的风险,顶尖的AI实验室也承认这一点。正如广受认可的阿西洛马人工智能原则原则所述,高级AI可能代表着地球生命历史的深刻变化,应该以合适的态度和资源去进行规划和管理。不幸的是,这种水平的规划和管理并没有发生。尽管最近几个月AI实验室陷入了一场失控的竞赛,以开发和应用越来越强大的数字思维,然而没有人能够理解、预测或可靠地控制这些思维,甚至他们的创造者也不能。
BTTC团队:BTTC是波场 TRON 成为人类未来全球清算底层这个新愿景的重要支撑:据官方消息,波场TRON创始人兼BitTorrent CEO孙宇晨携BTTC团队正在一直播进行直播,BTTC团队在直播中表示:对波场TRON而言,BTTC是波场 TRON 成为人类未来全球清算底层这个新愿景的重要支撑。BTTC解放了波场TRON的生产力,也让波场TRON协议的定位更加明晰。未来,作为第一层(Layer 1)的波场TRON协议的定位是全球清算层,将完全焦距于人类未来全球清算底层(Global Settlement Layer)这一宏大愿景上。而作为第二层(Layer 2)扩容跨链解决方案的BTTC,未来将承接来自波场TRON DEFI,NFT,DAPP与新兴区块链等项目。[2021/12/15 7:39:43]
当代AI系统在一般任务上正在拥有与人类竞争的能力,我们必须问问自己:
我们应该让机器在我们的信息渠道中充斥宣传和谎言吗?
我们是否应该自动化所有的工作,包括那些有成就感的工作?
我们是否应该培养出可能比我们数量更多、比我们更聪明、最终超越并取代我们的非人类思维?
声音 | 孔剑平:区块链的混合计算会成为人类重要的资产类别:12月18日,创业邦100未来商业峰会暨2019创业邦年会在北京举行。嘉楠耘智联席董事长孔剑平发表题为“区块链开启数字经济新时代”的主题演讲。他认为,新的经济增长点越来越凸显,数字经济会成为未来经济的主要增长动力,区块链可能是非常好的一个机会。孔剑平表示,区块链的混合计算会成为人类重要的资产类别,区块链的计算不只是计算比特币,还可以计算世界上所有需要计算的东西。现在的公司都是以万亿美金为最高门槛,而在区块链和人工智能这个新的数字时代,可能十万亿美金会成为一个新的标配。区块链真正把人类的价值文明和数字文明构建起来了,未来一切都来源于矿机,矿机是硅基文明的奠基者。[2019/12/19]
我们是否应该冒着失去对我们文明控制的风险?
此类决策决不应该委托给未经选举产生的技术领导人。只有当我们确信AI的效果是积极的,风险是可控的时候,AI系统才应该被开发。这种对AI的判断必须是合理的,并随着系统潜在影响的变化而变化。
OpenAI最近关于人工通用智能的声明指出,“在开始训练未来的系统之前,进行独立审查可能很重要。同时对于最前沿的工作而言,人们应该在合适的时间点限制用于创建新系统的计算增长率。我们同意这一说法,并认为现在就是合适的时间点。
声音 | Tim Draper:比特币对人类有益,美国监管机构应给予其发展空间:美国风险投资家Tim Draper接受采访时表示,比特币对人类有益,美国联邦监管机构应该给它空间来蓬勃发展。随着Facebook的Libra遭受来自各方的抨击,比特币也被置于聚光灯下,Draper表示,更多的曝光率整体来说对比特币是有好处的:“这让一切都得以显现。让人们谈论比特币是件好事,因为他们谈论得越多,就会越意识到比特币对全世界、对我们所有人的重要性。” 这位经验丰富的科技投资者表示,加密货币或可降低交易成本,并使国际支付更加便利,从而使人类受益。Draper称,“这于我们来说是最好的事情之一。”(CNBC)[2019/7/20]
因此,我们呼吁所有的AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。这种暂停应该是公开的和可核实的,所有关键的参与者也能暂停相关工作。如果这种暂停不能迅速开始,政府应该介入并实施暂停。
AI实验室和独立专家应利用这一暂停的时段,共同开发一套AI设计和开发的共享安全协议,这些协议需要由独立的外部专家严格审计和监督。这些协议应确保所有遵守它们系统的AI是安全的。这种暂停并不意味着总体上暂停AI开发,只是让人们从具有新兴功能的、不可预测的危险竞赛中后退一步。
乐搏资本杨宁:区块链会成人类历史分水岭:金色财经记者在韩国TokenSky区块链大会上的前方报道:乐搏资本创始合伙人、天使投资人杨宁今日在韩国TokenSky区块链大会上发表了“消费链打破数据垄断”为主题的演讲。他认为首先区块链这个革命大家都感受到了大的时代的到来,他认为目前对区块链来说有两拨思想,一拨人认为这个东西特别的伟大,一拨人认为它是子。谈及区块链是什么,他说区块链归根到底它是一个数据结构,按照计算机来说它就是研究如何储存一个数据的,它的方式是用P2P的储存方式,有一个储存的机制,有自己的一个衍生的协议。区块链的到来是以互联网为基础的,也就是互联网的普及是在于计算机的普及才有互联网的时代,区块链的到来正好是因为互联网全面渗透到全世界,渗透到每个人的生活当中,有互联网这个发展基础,那么区块链才得以发展,所以区块链的基础是基于互联网之上的,区块链和传统的互联网这个变化其实真的是一个革命性的变化,不是一个衍生性的变化,就像互联网之前的人类和互联网之后的,以后区块链同样也是会在人类历史上的一个分水岭。乐搏资本专注于文娱、科技等行业的投资,曾经参与投资风行、轻客智能、亿航科技等。杨宁与真格基金徐小平等联合创办中国青年天使会,杨宁任创始会长。[2018/3/14]
AI的研究和开发应该重新聚焦于使当今强大、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。
与此同时,AI开发人员必须与政策制定者合作,大幅加快强大的AI管理制度的开发。管理制度至少应包括以下内容:
?针对AI的新的、有能力的监管机构;
?监督和跟踪能力强大的AI系统和计算能力池;
?帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;
?提供健全的审计和认证生态系统;
?对AI造成的损害进行责任认定;
?为AI技术的安全研究提供充足的公共资金;
?资源充足的机构以应对AI将造成的巨大经济和破坏。
人类可以通过AI享受一个繁荣的未来。在成功创建了强大的AI系统后,我们现在可以享受一个“AI之夏”。
在这个AI的夏天,我们可以收获回报,为所有人的利益设计这些系统,并给社会一个适应的机会。人类社会曾经暂停使用一些可能会对社会造成灾难性影响的技术,我们现在也可以在AI领域这样做。让我们享受一个漫长的AI之夏,不要在没有准备的情况下匆忙进入秋天。
事实上,这封公开信是近期人类精英们对人工智能风险担忧的总爆发。自ChatGPT高速迭代后,担忧从未停止,特别是当微软、谷歌、百度、华为等科技巨头们在自然语言模型上展开“军备竞赛”之后。
日前,“深度学习之父”杰弗里·辛顿在媒体采访中表示,人工智能正处于“关键时刻”,毁灭人类“并非不可能”。AI领域内的“大牛”盖瑞·马库斯发推特支持辛顿,甚至发出灵魂一问:“用百分之一的人类毁灭风险换取和机器对话带来的乐趣,这值得吗?”
而马库斯在转发FLI这封公开信时表示,“这封信并不完美,但精神是正确的。我们需要放慢脚步,直到我们更好地理解AI带来后果……他们可能会造成严重伤害……主要参与者对他们正在做的事情越来越保密,这使得社会很难抵御可能发生的任何伤害。”
也有科技圈人士对这封信的观点持不同意见。
Writer的创始人Waseem以讽刺的语气表达了他对权威们的不满,“让我们停止建设和发展我们的公司,因为来自硅谷的亿万富翁说我们有风险。一定要喜欢那些比我们人类更聪明的人,因为他们告诉我们如何生活。当我们有他们神圣的指引时,谁还需要进步?”?
OSSCapital的创始人JosephJacks态度更是简洁明了:强烈反对,绝对不签这个。
?ChatGPT:暂停合理但小心阻滞技术
目前,OpenAI还没有就FLI的这封公开信做出回应。而我们把人类精英们的担忧与建议甩给了ChatGPT,引发这场纷争的这个对话机器人不但认可了FLI要求暂停实验的合理性,还补充了六大AI风险。
ChatGPT的答案中也包含了暂停实验带来弊端:导致技术发展的滞后。这也和舆论场上很多普通大众的想法趋同。????????????????????
那么,问题摆在眼前,如果要让研究人员和政府制定规则,该包含哪些内容呢?ChatGPT给出了十大建议,相当于给包括自己在内AI发展画了一个规范圈。
连ChatGPT自己都这么说了,可见,“AI失控”、”替代人类“无论是在意见领袖圈层还是舆论场上都有探讨的意义。
最近,微软的创始人比尔·盖茨在大力肯定人工智能带来生产力提升的同时,也强调过风险,“AI失控的可能性是存在的,一台机器会认为人类是自己的威胁吗?它们会得出结论认为自身利益与人类的利益不同进而不在意我们吗?”他预测,随着算法、算力的提升,超级智能AI会在未来出现。
连OpenAI的CEOSamAltman都表示,超级智能AI的风险可能会远远超出我们的预料。此前,他在技术研究员LexFridman的播客中表达他的担忧,包括AI造成的虚假信息问题,带来的经济冲击等等,“危害可能远远超过了人类能应对的程度”,他举了个例子,“我们怎么会知道,大语言模型没有在推特上指挥大家的思想流动呢?”
这正应了那封公开信中所说的:没有人能够理解、预测或可靠地控制这些数字思维,“甚至他们的创造者也不能”。
虽然通用人工智能还远远没有到来,但就像比尔·盖茨说得那样,在这之前,世界需要建立规则以使AI带来的正面影响远远超过其负面影响。
换句话说就是,别让人类造出的东西把人类自己灭了。毕竟,战争、核事故带来的灾难还历历在目。
二季度伊始,加密市场迎来“小阳春”。比推终端数据显示,比特币周一盘中自2022年6月10日以来首次突破29,200美元,24小时涨幅近4%,这是继3月初23,500美元关口之后的一次强劲反弹,与.
1900/1/1 0:00:003月28日消息,欧洲议会经济事务和内政委员会的成员以99票赞成、8票反对和5票弃权投票通过反条例.
1900/1/1 0:00:00文/OXjim,译/金色财经xiaozou 我们之前探讨过未来将出现数百万个区块链的景象——其中一些是通用链,但绝大多数区块链将是特定应用链.
1900/1/1 0:00:00原文标题:《AcomparisonofzkEVMs》原文作者:DanielLubarov?原文编译:Kxp,BlockBeats随着「zkEVM战争」的升温.
1900/1/1 0:00:00金色财经报道,Arbitrum就一项为新成立的去中心化自治组织(DAO)引入管理机构的提案进行了投票.
1900/1/1 0:00:00”这是AI画的吗?“又一个试探发问的帖子浮出水面,配图是手游《王者荣耀》发布于2023年3月的新皮肤宣传海报。玩家小畅很快看到了这个问题,她没有打算回复楼主,而是轻巧地给前排评论点了个赞.
1900/1/1 0:00:00