29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。
公开信的来头不小,已有1126名科技领袖和研究人员签名,到底发生了什么?
最着名的有马斯克、辛顿和马库斯,此外还包括图灵奖得主约书亚·本希奥、《人工智能:现代方法》作者斯图尔特·罗素、苹果公司联合创始人史蒂夫·沃兹尼亚克、Stability AI首席执行官埃马德·莫斯塔克等科技界领袖人物。
他们在呼吁什么,反对什么呢?
[笔者把内嵌的通俗说明用颜色斜体字标出!]
公开信截图
公开信内容如下:
具有人类竞争力智能的AI系统可能会对社会和人类造成深刻的风险,这一点已经被广泛研究并得到了顶级AI实验室的认可。
正如广泛认可的Asilomar AI原则中所述,高级AI可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。
不幸的是,目前尚无这种级别的规划和管理。[公开信的核心就是围绕着规范和惯例,为什么?]
最近几个月人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。
[需要管控的原因,是因为AI开始自主输出信息,而且信息不可控,而不仅仅是给人类提供帮助,或者提高效率。]
当代人工智能系统现在在一般任务上表现与人类相当,我们必须扪心自问:
我们是否应该让机器用宣传和虚假信息充斥我们的信息渠道?
[互联网绝大部分信息都是宣传和虚假信息,而且现实中大部分用自动化脚本产生,甚至AI]
我们是否应该自动化所有的工作,包括那些富有成就感的工作?
[人的贡献如何体现?]
我们是否应该开发非人类的思维,可能最终会超过我们、智胜我们、使我们过时并取代我们?
[这是对未来的思考,而且取代后的收益归谁,才是更重要的话题]
我们是否应该冒险失去对我们文明的控制?[这个还太远]
这些决策不能委托给未经选举的技术领袖。[这里控诉的是技术垄断,和技术霸权。]
强大的AI系统只有在我们确信其影响将是积极的、风险可控的情况下才应该开发。这种信心必须有充分的理由,并随着系统潜在影响的程度增加而增强。
OpenAI 最近关于人工智能的声明指出:“在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的工作来说,人们应该在合适的时间点限制用于创建新系统的计算增长率。”
我们认为,现在已经到了这个时间点。
因此,我们呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。
这种暂停应该是公开和可验证的,并包括所有关键人员。如果无法快速实施这样的暂停,政府应该介入并实行叫停。
AI实验室和独立专家应该利用这个暂停时间共同开发并实施一套共享的高级AI设计和开发安全协议,这些协议应该由独立的外部专家进行严格审核和监督,这些协议应确保遵守它们的系统是安全的,无可置疑的。
这并不意味着总体上暂停AI开发,而是从具有新兴功能的、不可预测的大型黑盒模型的危险竞赛中后退一步。
人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。
同时,AI开发人员必须与决策制定者合作,大力加速强大的AI治理系统的发展。这些治理系统至少应该包括:
专门针对AI的新型和有能力的监管机构;[菜市场都要有人管,更何况AI]
对高能力的AI系统和大量计算能力的监督和跟踪;[菜的化肥农药,要可追溯,AI当然也必须如此]
帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;[给产品贴商标,以及追踪使用场景,不能拿菜刀去砍人,只能切菜]
一个强大的审计和认证生态系统;[发营业执照]
对由AI引起的损害的责任;[根据营业执照追责,万一农药超标呢?]
针对技术AI安全研究的强大公共资金;[以防算力垄断,技术垄断,这应该是公共产品]
资源丰富的机构,以应对人工智能将造成的巨大经济和政治溷乱。[由组织做好失控预桉]
人类可以在AI的帮助下享受繁荣的未来。我们已经成功地创建了强大的AI系统,现在可以享受“人工智能之夏”,在这个夏天,我们收获了回报,为所有人明确的利益设计这些系统,并给社会一个适应的机会。
社会已经暂停了其他可能对社会产生灾难性影响的技术的发展。
我们在人工智能领域也能这么做。
让我们享受一个漫长的AI夏季,而不是匆忙而不准备地迎接秋天的到来。(Let's enjoy a long AI summer, not rush unprepared into a fall)。
声明到此为止------
这封信,其实不难理解,笔者前期也表达过类似观点》《ChatGPT,请先远离!》一文中提出,ChatGPT相关技术涉嫌伦理问题!
这篇声明实际上说的也是类似问题!
1、无监督海量学习,如果投喂的是不受监督的信息,那么AI产出也将是无法预测的结果,这有违一致性原则!
通俗点说,你不知道它学的是什么,更不知道它输出的是对是错!
2、互联网信息90%以上是垃圾,如果以垃圾为原料,产生的结果可能对人类有害。
毒品、枪支、暴力、极端主义等信息泛滥的互联网,如果是AI的学习来源,那么其输出对人类的影响可想而知。
现在互联网上的宣发、垃圾、有害信息是什么产生的呢?
以前是自动化脚本,现在都是AI!
所以,现在内容分析过滤系统,都是用AI来反制AI产生的垃圾信息。
3、人创造的,还是AI创造的,成果和责任要匹配。
不能只享受AI创造的成果,却无人为AI造成的损失负责,这明显是不合理的!
所以,AI生产的信息必须做合理的标记,和正常人产生的信息区别开,并各自承担不同的责任。
电子世界和现实世界其实类似,犯罪带来的收益远高于劳动报酬。
AI可以大大降低犯罪的门槛!
比如,利用AI来创造一个病毒,要远比人工方便得多,迭代也要快很多倍,可以找到最佳传播途径,盯上最有价值的目标。
而反病毒智能,很可能只能等到犯罪事实发生之后再去弥补,而损失已经造成。
其实,互联网发展到现在一样伴随这个争议!
就以电子邮件为例!
电子邮件诞生开始,方便了沟通的同时,也制造了无数的垃圾信息,统称为spam,更为诈骗,作恶提供了渠道,是黑产业的温床。
电子世界里,有超过90%的电子邮件信息是有害信息,需要强大的内容过滤设备来清理过滤,以防此类信息到达用户。
邮件产业链研发了无数种规范,设备,来防止垃圾邮件的泛滥,最终形成了以实名认证模式为主的DMARC规范,才有效遏制了垃圾邮件的传播。
即使如此,垃圾邮件依然是整个电子邮件里占比超过60%的内容!
手机短信也类似,移动互联网的实名制,导致犯罪成本升高,以及运营商内容过滤设备的部署,才一定程度上遏制了此类信息。
所以,以互联网垃圾为学习原料的AI,其输出的信息是否应该被标记?
具有学习能力的设施,机器,机构、个体,是否也应该注册,拿到执照后规范运行?