大佬云集!李飞飞领导斯坦福以人为本AI研究所落地 三大理念诠释“以人为本”

2019-03-19 16:42

斯坦福大学的一位科学家创造了人工智能一词。大学的其他人又创造了它的一些最重要应用,例如第一辆自动驾驶汽车。

但是,随着硅谷面临着技术如何改变社会的问题,斯坦福希望走在不同创新类型的前沿,这种创新将人类和道德置于人工智能蓬勃发展领域的漩涡中心。

周一,斯坦福大学启动以人为本人工智能研究所(HAI),将由李飞飞和斯坦福大学教务长约翰·埃切曼迪共同领导。这也是一个庞大的智囊团,旨在成为政策制定者、研究人员和学生的跨学科中心,他们将携手构建未来的技术。他们希望能够向下一代灌输比迄今为止所表现出来的更为世俗和人道的价值观,并指导政治家对技术所??带来的具有挑战性的社会问题作出更复杂的决定。

李飞飞在开幕仪式上介绍,HAI的诞生来源于三个简单而有力的理念:人工智能的发展应该以其对人类社会的影响为指导;人工智能应该增强人类技能,而不是取代人类;人工智能应该更多融入人类智慧的多样性、差异性和深度。

“我无法想象,我自己感兴趣的学科会在十年半之后成为人类将要经历变革的驱动力之一。” 李飞飞表示,“这种认识演变成了一种巨大的责任感。”

以人为本人工智能研究所获得了该领域最大的领导者和行业参与者的支持,虽然并不是第一次做出这样一个学术努力,但它是迄今为止最雄心勃勃的:目标是筹集超过10亿美元。其咨询委员会由硅谷知名人士组成的,包括前谷歌执行主席埃里克·施密特,LinkedIn联合创始人里德·霍夫曼,前雅虎首席执行官玛丽莎·梅尔和联合创始人杨致远,以及著名投资人吉姆·布雷耶。微软联合创始人比尔·盖茨周一也出席首届研讨会,并发表主题演讲。

筹集的资金不仅用于研究资助和学术集会,还用于购买数据处理能力,并吸引一些近年来逃离学术界、投身高回报行业工作的人才回归。新研究所坐落在斯坦福大学校园中心一座占地200,000平方英尺的新建筑内。

“我们认识到,在技术开发早期做出的决定会产生巨大的影响。”哲学家,前斯坦福大学教务长,人工智能研究所的第二所长约翰·埃切曼迪说,“我们需要考虑这种可能是什么,为此,我们不能仅仅依靠技术专家。”

以人为本AI研究所的想法始于2016年李飞飞和埃切曼迪之间的一次对话,当时走在大学的校道上,只花了五分钟时间。

最近,埃切曼迪买下了李飞飞隔壁的房子,两人成为邻居。偶然的邻居闲聊很快走向更重要的方向,关于社会未来和人工智能爆炸领域出现的问题。初创公司们致力于商业化前的小众学术技术,从而拿到了数以十亿美元计的投资。Facebook、苹果和谷歌这样的科技公司正在招聘世界顶级的人工研究人员,以及许许多多的应届毕业生,他们被安置在新的部门,致力于机器人技术、自动驾驶汽车和家用设备的语音识别。

“对于人工智能中几乎所有东西,正确答案比比皆是。”谷歌前主席施密特说,“这一代人比我们更有社会意识,更广泛地关注他们所做的一切的影响,所以你会看到乐观主??义和现实主义的结合。”

校道上那次五分钟谈话后,几年时间过去了,人工智能的危险和弊端变得更加明显。似乎每天都有关于这项技术造成失业浪潮的新统计数据,从长途卡车司机到农场工人再到皮肤科医生。埃隆·马斯克称AI为“人类生存威胁”,并将其比作“召唤恶魔”。

对于杰出的、有权势的、以男性为主的科技领袖作出的这种AI警告,李飞飞去年在雷伯恩大楼作证时表示,这些担忧被给予了太多的重视和关注。她关注的是一个不那么戏剧化但更重要的问题:人工智能将如何影响人们的工作和生活方式。它必然会改变人类的体验,但不一定会变得更好。“我们还有时间。”李飞飞说,“但我们现在必须行动。”李飞飞认为,如果我们对人工智能的工程方式以及谁来设计人工智能做出根本性的改变,这项技术将成为一种永久的变革力量。如果没有,我们就把很多人性因素排除在外。

在那次听证会上,李飞飞表示,“人工智能受人类的启发,由人类创造,最重要的是,它影响着人类。它是一个强大的工具,我们才刚刚开始理解,需要承担极大的责任。”

回到2017年,多伦多大学研究员杰弗里·辛顿利用李飞飞的ImageNet数据库训练了一种深度神经网络人工智能,证明计算机识别图像错误率从5年前的15%下降到不足3%,历史开始改变。与此同时,正在休产假的李飞飞开始思考同龄人中有多少是女性。

在那一刻,李飞飞强烈地感觉到,这种差距将越来越成为一个问题。大多数构建人工智能算法的科学家都是男性,而且通常都是有着类似背景的男性。他们有一种独特的世界观,这种世界观渗透到他们所从事的项目中,甚至渗透到他们所预见的危险中。许多人工智能的创造者都是有着科幻梦想的男孩,他们会想到《终结者》和《银翼杀手》中的场景。李飞飞认为,担心这样的事情没有什么错。但这些想法暴露了对人工智能潜在危险的狭隘看法。

李飞飞坚信,虽然驱动人工智能的算法可能看起来是中立的,但影响这些算法结果的数据和应用程序却不是。重要的是建造它的人以及他们为什么要建造它。李飞飞在国会指出,如果没有一个多样化的工程师团队,可能会有偏见的算法做出不公平的贷款申请决策,或者只根据白人面孔来训练神经网络,创建一个对有色人种面孔表现不佳的模型。李飞飞说,“我认为,如果我们在20年后醒来,看到我们的技术、领导者和从业者缺乏多样性,那才是末日场景。”

如今,研究人员和记者已经展示了人工智能技术(主要由白人和亚洲人设计)如何以危险的方式重现和放大社会偏见。内置于相机中的计算机视觉技术难以识别有色人种的面孔。语音识别很难分清非主流英语口音。为预测违反假释规定的可能性而建立的算法充斥着种族偏见。

并且存在政治影响:旨在针对感兴趣的消费者投放广告的推荐软件,被别国加以利用干涉选举,放大虚假信息和虚假叙述。

“问题的关键在于,这场人工智能革命——以及今天的机器学习技术——是否会促进人类的进步。”该研究所顾问委员会主席霍夫曼说。他称斯坦福大学的研究所是一个潜在的“关键杠杆”,可以作为“催化剂”,值得信赖的顾问,以及行业、政府和公众的情报来源。 (去年有报道称,霍夫曼在阿拉巴马州选举期间资助了Facebook上的一场虚假信息宣传活动,之后陷入麻烦。他说他不知道他的钱被滥用了)

虽然大学近年来因筹集大笔资金而受到批评,而斯坦福大学赫然在列最大的筹款机构之中,但麦肯锡全球研究所所长及咨询委员会成员James Manyika认为,如果大学想要在人工智能领域保持竞争力,资金尤为必要。这笔资金不仅可用于留住人才,还可用于资助昂贵的数据处理机器,这些机器可以大规模运行人工智能应用程序。

“我们的目标是拥有能够使斯坦福具有竞争力的资源。”Manyika说,“如果你给斯坦福大学的研究人员提供计算机,那么这将大大减缓人才流失对这些企业实验室的影响。”

施密特表示他在过去一年左右发现了一个“临界点”,全美国各地的计算机科学课程正在增加人工智能道德课程,谷歌等大公司正在宣布人工智能原则并制定内部计划,以试图在构建的软件中消除偏见。施密特表示,斯坦福大学的计划将提升和集中这些特别的努力,但也有助于整个领域的发展。

HAI尚未回答的一个更大问题是,它将在多大程度上对当前最棘手的问题采取政策立场,其中李飞飞和其他HAI成员直接涉及其中。去年,李飞飞担任Google Cloud人工智能首席科学家时,谷歌因与五角大楼签订一份Maven项目合同而卷入了一场争议。该程序使用人工智能来解释视频图像,这些图像可以用于无人机打击目标;而谷歌声称,它是出于“使用人工智能识别低分辨率对象”和“拯救生命为首要意图”。

然而,许多员工反对在军用无人机上使用其技术。其中约4000人签署了一份请愿书,要求“一项明确的政策,声明谷歌及其承包商永远不会制造战争技术”,甚至有人辞职以示抗议。

虽然李飞飞没有直接参与这笔项目,但她所在的部门负责管理Maven项目。当李飞飞写的电子邮件被泄露给《纽约时报》时,就成了这场争议的公众人物。据《纽约时报》报道,李飞飞证实,由于该主题的敏感性,李飞飞提醒同事在讨论合同时不要使用人工智能一词。

虽然这些邮件看上去像是在帮助公司避免尴尬,但在公开场合,这似乎让人困惑,因为李飞飞一直在该领域以道德规范的化身而闻名。事实上,在公众强烈抗议之前,她认为这项技术“相当无害”,没有想到这会引起员工的反感。

李飞飞后来也思考矛盾爆发的原因,“这并不是问题的实质。它关乎当下——我们的集体责任感、人工智能的新兴力量、硅谷需要参与的对话。Maven只是成为了一种汇聚点。”她说,“‘不作恶’不再是一个足够强硬的立场。”

对于这种类似立场问题,埃切曼迪则表示,HAI不会偏袒任何一方,也不会向其他组织发号施令。

埃切曼迪说,来自法律和人类学等部门的200名教师已经向研究所申请资金。已经有55个人获得了种子基金,用于研究人工智能对医疗决策、性别偏见和难民重新安置等问题的影响。他说,以人为本AI研究所最大的优势之一就是,致力于提升专业内部的多样性,并从传统上与AI无关的领域招募专家。

分享到:
收藏
相关阅读