这篇文章是我们关于DealBook峰会的特别部分的一部分,该峰会包括来自世界各地的商业和政策领袖。
像ChatGPT这样的生成式人工智能的出现,标志着人工智能在社会各个领域的使用方式发生了根本性的变化,但它仍然必须被视为人类可以使用和控制的工具,而不是控制我们的东西。
对人工智能进行某种监管是必要的,但对此类规则的广度和可执行性的看法大相径庭。
为了实现人工智能的潜力,并尽可能地控制风险,科技公司不能单打独斗。应该与大学和政府等其他部门建立真正的伙伴关系。
把七位人工智能专家聚集在一个房间里,就会有很多关于一切的辩论——从立法到透明度再到最佳实践。但他们至少可以在一件事上达成一致。
这不是超自然现象。
“人工智能不是来自火星的东西这是我们塑造的东西,”IBM研究员、IBM人工智能伦理全球负责人弗朗西斯卡·罗西(Francesca Rossi)说。罗西与工业界、学术界和欧盟议会(European Union Parliament)的其他代表一起,参加了上周的交易簿峰会(DealBook Summit)特别工作组,讨论如何利用人工智能的潜力,同时监管其风险。
承认人工智能并非来自外太空是比较容易的部分。但它将如何形成——不仅在美国,而且在全球——要困难得多。政府在控制人工智能方面应该扮演什么角色?科技公司的人工智能研究应该有多透明?即使人工智能的能力存在,在某些领域采用人工智能的速度是否应该放慢?
虽然人工智能已经存在了几十年,但当OpenAI公司一年前发布ChatGPT时,它立即成为了一种全球现象;凯文·卢斯(Kevin Roose)是《纽约时报》的科技撰稿人,也是该工作组的主持人,他写道:“很简单,ChatGPT是有史以来向公众发布的最好的人工智能聊天机器人。”
这些新型的聊天机器人可以用一种令人毛骨悚然的类似人类的方式和无数种语言进行交流。所有这些都还处于起步阶段。虽然ChatGPT是最著名的,但还有其他的,包括谷歌的Bard和最近亚马逊的Q。
“我们都知道,人工智能的这个特定阶段还处于非常、非常早期的阶段,”戴尔科技公司(Dell Technologies)总裁兼首席技术官约翰·罗斯(John Roese)说。没有人可以自满,或者认为人工智能“只是一种商品”。
“不是的,”他说。“这不是你只能消费的东西。这是你要驾驭的东西。”
斯坦福大学计算机科学教授、以人为本的人工智能研究所联合主任李飞飞(Fei-Fei Li)说,虽然人工智能已经取得了巨大的飞跃,而且发展得如此之快,以至于很难跟上它的发展状态,但重要的是不要把它神秘化。“不知何故,我们对此过于兴奋了。它是一个工具。人类文明始于工具的使用和工具的发明,从火到石头,从蒸汽到电。它们变得越来越复杂,但仍然是一种工具对人的关系。”
虽然人工智能的某些工作方式甚至对它的开发者来说都是无法解释的,但李教授指出,这对药物(例如对乙酰氨基酚)也是如此。她说,然而,大多数人毫不犹豫地服用这些药物的部分原因是因为有一个联邦机构——美国食品和药物管理局——对药物进行监管。
这就提出了一个问题:是否应该为人工智能设立一个类似fda的机构?
与会者一致认为,一定程度的监管是必要的,但关键在于决定监管应该是什么样的。
在DealBook会议上接受采访的副总统卡玛拉·哈里斯(Kamala Harris)就这个问题单独发表了讲话。
她说:“我知道,我们在监督和监管方面必须做的事情,与有意不扼杀创新之间,可以而且必须取得平衡。”
然而,找到平衡是很困难的。
欧洲议会(European Parliament)正在制定首部监管人工智能的重要法律,世界其他地区都在密切关注这一问题。
该法律的部分内容要求对在确定的高风险领域(如医疗、教育和刑事司法)使用的人工智能进行评估。这将要求人工智能系统的制造商,除其他事项外,披露用于训练其系统的数据——以避免偏见和其他问题——以及他们如何管理敏感信息及其对环境的影响。它还将严重限制面部识别软件的使用。
欧洲议会(European Parliament)成员、特别工作组参与者白兰度·贝尼菲(Brando Benifei)表示,他希望该法案能在明年初获得通过;在实施之前会有一个宽限期。
去年10月,白宫就人工智能发布了一份冗长的行政命令,但没有一个执行机制,而贝尼菲认为这是必要的。“显然,这是一个微妙的话题,”他说。“商业部门有很多担忧,我认为这是有道理的,那就是在我们完全了解所有挑战之前,我们不要过度监管。”但是,他说,“我们不能仅仅依靠自我监管。”他补充说,人工智能的开发和使用必须是“可执行的,并能向我们的公民解释”。
其他工作组成员则不太愿意接受如此广泛的监管。问题比比皆是,例如,如果出现问题,谁应该负责——最初的开发人员?第三方供应商?最终用户?
“你无法在真空中监管人工智能,”罗斯说。“人工智能依赖于软件生态系统,数据生态系统。如果你试图监管人工智能而不考虑对相邻行业的上下游影响,那你就错了。”
出于这个原因,他说,在相关政府机构内设立一个人工智能办公室或部门更有意义——也许有一个全面的人工智能协调员——而不是试图建立一个集中的人工智能机构。
大家一致认为,透明度是关键,政府、工业界和大学研究部门之间的伙伴关系也是关键。亚马逊人工通用智能(Amazon Artificial General Intelligence)高级副总裁兼首席科学家罗希特·普拉萨德(Rohit Prasad)说:“如果你不是很透明,那么学术界就会被抛在后面,没有研究人员会从学术界出来。”
李教授是房间里唯一的学术代表,他指出,企业经常说他们想要合作,但不“付诸行动”。
此外,她说,“这不仅仅是监管的问题。这确实与对公共部门进行深入而深刻的投资有关,”她指出,她已经直接请求国会和拜登总统支持这一领域的大学。她说,学术界可以在这个领域充当一个值得信赖的中立平台,但“现在我们完全没有公共部门的参与。”
人工智能被称为对人类生存的威胁——可能是通过其用于破坏民主的监视或发射可能大规模杀伤的自动化武器来实现的。但贝尼菲说,这种被高度宣传的警告分散了人们对人工智能更平凡但更紧迫的问题的关注。
“我们今天有算法偏差的问题,人工智能的滥用,这是人们日常生活中的问题,而不是人类的灾难,”他说。
所有这些问题都与谷歌DeepMind首席运营官莱拉·易卜拉欣(Lila Ibrahim)有关。但她指出,有一个重要的问题,他们一直没有时间涉及:“我们如何真正让今天的年轻人掌握人工智能技能,并在实现多样性和包容性的情况下做到这一点?”她问。“我们怎样才能不让人们进一步落后?”
主持人:凯文·卢斯,《纽约时报》科技撰稿人
参与者:欧洲议会议员Brando Benifei;Lila Ibrahim,谷歌DeepMind首席运营官;李飞飞,斯坦福大学计算机科学教授、斯坦福人类中心人工智能研究所联合主任;亚马逊人工通用智能高级副总裁兼首席科学家罗希特·普拉萨德;Lyft首席执行官大卫?里舍尔(David Risher);John Roese, Dell Technologies总裁兼全球首席技术官;弗朗西斯卡·罗西,IBM研究员,人工智能伦理全球领袖
本文的另一个版本出现在纽约版第8页F部分,标题为:在监管人工智能中找到平衡……订购转载|今日报|订阅