“电影《终结者》中的情况会不会发生?”
英伟达市值一度突破万亿美元。人工智能崛起的背后,公众的担忧也与日俱增。一封重磅公开信再次被科技圈泄露。当地时间5月30日,非营利组织“人工智能安全中心”在其官网发表联合公开信称,人工智能这种堪比“流行病和核战争”的技术可能对人类生存构成威胁。人类的。威胁。整个声明只有一句话,长达22个字:“减轻人工智能带来的灭绝风险应该成为全球优先事项,与流行病和核战争等其他社会规模风险同等重要。”拜登政府最近几个月前,人工智能对公共安全、隐私和民主构成了威胁,但政府对其进行监管的权力有限。由OpenAI创始人牵头、超过350位AI大亨联署,超过350位AI大亨签署了上述联合公开信,其中包括OpenAI首席执行官萨姆奥尔特曼、谷歌DeepMind首席执行官德米斯哈萨比斯和Anthropic首席执行官达里奥阿莫德。 AI大公司负责人等,被称为人工智能“教父”的图灵奖得主Geoffrey Hinton、Yoshua Bengio也在名单中。名单上还有中国学者,包括中国工程院院士、清华大学智能产业研究院(AIR)所长张亚勤,清华大学人工智能伦理与治理研究中心主任曾毅等。中国科学院自动化研究所、清华大学副教授詹贤元。其他签署者包括微软首席技术官凯文斯科特、前联合国裁军事务高级代表安吉拉凯恩、Skype联合创始人贾恩塔林和Quora首席执行官亚当德安杰洛。他们表示,虽然公众已经认识到人工智能的风险,但还有更多挑战需要讨论。他们还希望“为越来越多的专家和公众人物创造共同知识,他们也认真对待先进人工智能领域一些最严重的风险。”值得一提的是,目前微软创始人比尔盖茨尚未签署这封联名信。 “危险!立即停止一切大规模人工智能研究。”自去年ChatGPT发布以来,科技行业掀起了一场竞争激烈的AI竞赛,也引发了公众对这项未知技术的恐惧。今年3月,本吉奥、马斯克、苹果联合创始人史蒂夫沃兹尼亚克、Stability AI创始人埃马德莫斯塔克等科技巨头联合发表公开信,呼吁暂停比GPT-4更强大的人工智能系统的训练至少6个月。公开信强调,人工智能正在迅速发展,但没有相应的规划和管理:“近几个月来,人工智能实验室掀起了一股人工智能热潮,他们疯狂地进行人工智能竞赛,以开发和部署日益强大的人工智能。” ,迄今为止,没有人能够理解、预测或可靠地控制人工智能系统,也没有相应水平的规划和管理。”信中提到,人工智能现在在一般任务上正变得与人类一样具有竞争力,我们必须问问我们自己:“非人类的大脑是否应该得到发展,以便它们最终在数量上超过人类,超越人类的智力,消灭并取代人类?我们是否应该冒险失去对人类文明的控制?”答案是否定的。公开信指出,只有当我们确信其效果是积极的、风险可控时,才应该开发强大的人工智能系统。因此,公开信呼吁要求所有人工智能实验室立即暂停比GPT-4 更强大的人工智能系统的训练至少6 个月。“我们应该从危险的竞赛中退一步……让当今最强大的模型更加准确和安全。让我们享受一个漫长的人工智能夏天,而不是毫无准备地仓促进入秋天。
《AI教父:后悔一生的心血,无力阻止人类AI战争》。5月初,深度学习泰斗、人工智能教父Geoffrey Hinton突然宣布从谷歌辞职,他终于可以畅所欲言了正是因为对人工智能风险的深切忧虑,让这位深度学习巨头直言:“我对自己一生的工作深感遗憾。” ” 在媒体报道中,Hinton 直接警告世界:小心,前面有危险,前面有危险,前面有危险! Hinton 在接受采访时表示,“我们几乎已经学会了计算机如何改进自己。这很危险。我们必须仔细思考如何控制它。 ”他曾指出,谷歌和微软以及其他公司之间的竞争将升级为全球性竞争。如果没有某种全球性监管,这种竞争将不会停止!他表示非常担心GPT -4迭代对人类构成威胁,强大的人工智能能够从大量数据中学习意想不到的行为。他担心有一天真正的自主武器——那些凶残的机器人——将成为现实。图片来自20 世纪80 年代的《西部世界》,Hinton卡内基梅隆大学计算机科学教授,但由于不愿意接受五角大楼资助,选择离开卡耐基梅隆大学前往加拿大。当时的辛顿强烈反对在战场上使用人工智能,他称之为“机器人”士兵”。Hinton从人工智能先驱者到末日预言家的转变,可能标志着科技行业几十年来最重要的拐点。本文不构成个人投资建议,也不代表平台观点。市场有风险,投资需谨慎。请您做出独立的判断和决定。你担心人工智能失控吗?