行业案例

INDUSTRY CASE

美国《时代》周刊公布人工智能百人榜

发布时间:2024-04-02 08:04:52 作者: 行业案例

  美国《时代》周刊网站9月7日刊发题为《我们是如何选出时代AI领域100位最具影响力人物的?》的文章,作者是萨姆·雅各布斯。全文摘编如下:

  《时代》公布了首届AI领域百人榜单,汇集了AI领域的引领者、创新者、塑造者和思想者。

  在很多方面,这个百人团是推动人工智能发展的力量中心。他们是竞争者和监管者,是科学家和艺术家,是倡导者和执行者,他们的洞察力、愿望和缺点将决定这一影响力日渐增长的技术的方向。

  百人榜中有43位首席执行官、创始人和联合发起人,有41位女性。他们中最年轻的是领导着关于人工智能道德的“正义编程”运动的18岁的斯内哈·雷瓦努尔,最年长的是76岁的图灵奖获得者杰弗里·辛顿。

  达里奥·阿莫代和丹妮拉·阿莫代兄妹:Anthropic公司首席执行官和总裁

  与构建尖端AI系统的其他公司相比,他们采取了一种更安全、更负责任的人工智能方法。

  世界领先AI实验室之一Anthropic公司成立于2021年,开发了合宪人工智能,这是一种调整AI系统的新方法,公司已将它嵌入到其最新的聊天机器人Claude 2中,这是开放AI研究中心(OpenAI)最强大的聊天机器人GPT-4的劲敌。

  这种新方法允许开发人员通过创建“宪法”来明确指定他们的系统应该遵循的价值观,允许开发人员将一套编纂好的价值观灌输到人工智能中。Anthropic自我定位为人工智能安全研究实验室。

  他年轻时设计了“主题公园”,这是一款很受欢迎的电脑游戏,让玩家也可以从上帝的视角看到一个庞大的游乐场生意。后来,哈萨比斯领导着顶级AI实验室“深层思维”公司,一直试图以上帝的视角看待世界。

  “深层思维”公司2014年被谷歌收购,作为它的首席执行官,哈萨比斯带领计算机科学家团队在人工智能方面取得了突破,包括解决了令人烦恼的蛋白质折叠问题,也能在复杂的围棋比赛中击败作为专业选手的人类。2023年4月,在OpenAI的ChatGPT取得成功后,谷歌公司重组人工智能团队,哈萨比斯获得了更大的权力。此次重组将“深层思维”公司和谷歌的另一个AI实验室“谷歌大脑”合并,并由哈萨比斯掌舵。

  整合后的“深层思维”公司正在开发一种名为Gemini的大型人工智能模型。哈萨比斯暗示,该模型的性能可能会超过OpenAI的GPT-4。与OpenAI的萨姆·奥尔特曼一样,哈萨比斯认为这是对“通用AI”的更大追求,他相信,只要人类能够规避不受控制的发展可能带来的严重风险,通用AI就可以开启科学进步,重塑更为美好的世界。

  作为中国最重要的未来学家之一,李彦宏很长一段时间站在人工智能的潮头。自2000年创立中国最受欢迎的搜索引擎百度以来,他的使命就是更好地理解和预测人类行为——在AI研究上投入了数百亿美元。百度已经有了自己的类似亚马逊公司虚拟助手Alexa的小度,并在中国一些大城市运营无人驾驶出租车。

  迫在眉睫的问题是,百度能否获得硬件来实现李彦宏的雄心壮志。虽然百度已经开发了自己的微处理器,但它严重依赖于从总部在美国加州的英伟达进口,而拜登政府禁止英伟达向中国客户出售其最先进的芯片。李彦宏表示,这些限制是“一个问题”,但也可能是一个机会。他说:“如果我们购买美国芯片的壁垒慢慢的升高,那么国产芯片将成为一个可行的选择。无论哪一种方式,都有很多创新的机会,所以我对AI的未来持乐观态度。”

  她履历光彩,是哥伦比亚大学和耶鲁大学教授,非营利组织社会科学研究委员会的主席兼首席执行官,也是数本畅销书的作者。

  作为白宫科学和技术政策办公室主任,纳尔逊去年10月负责监督了人工智能权利法案蓝图的发布,该文件为人工智能建设者和决策者提供了框架,旨在确保AI是公益力量,真正为公众服务,而不仅仅为科技行业提供福利。

  她今年2月离开白宫,但仍担任着几个有一定的影响力的职位,如美国进步中心的研究员,为州立法者和国会议员提供人工智能政策建议。她把行业、政策制定者和民间联络在一起。

  纳尔逊认为,美国、英国、南非等国即将举行的2024年选举使AI监管变得更紧迫,它已经被用于针对政治家生成深度伪造视频,并可能被游说团体当作武器,更大规模地传播谣言,为此需要更多监管。

  作为一位前科技创业家和投资者,伊恩·霍格思通过押注机器学习公司斩获了一大笔财富,也亲眼目睹了科技的快速发展。今年4月,霍格思在英国《金融时报》发表的一篇文章成为爆款,文章警告超级人工智能的长期风险,称最坏的情况下可能“导致人类灭绝”。随后,英国政府任命他为AI安全计划负责人,该计划现在被称为前沿人工智能工作组,获英国政府投资1.26亿美元。

  霍格思无偿为工作组工作,他称这是自己“至关重要的公共服务”。尽管他警告超级人工智能的长期风险,但表示工作组将第一先考虑短期风险的安全研究。他说,由于人工智能使设计和合成危险病原体变得更容易,生物安全是另一个将被关注的领域。

  20世纪70年代,人工智能经历了一段低迷的时期,辛顿在这个不时髦的领域拿到爱丁堡大学的人工智能博士学位后,从英国来到美国,在这个地方进行了开创性的研究,并于2018年获得图灵奖,辗转美国多所大学任职后,最终在加拿大多伦多大学担任计算机科学教授,一生中的大部分时光浸淫于学术界。

  辛顿是50年来最有一定的影响力的人工智能研究者之一,始终致力于构建模拟人脑的AI系统。他在神经网络的发展和普及方面发挥了及其重要的作用,神经网络是人工智能的主要开发模式,它允许大量数据被摄取和处理,从而推动了图像识别、语言理解和无人驾驶汽车的进步。

  他一直认为人脑比他和其他人正在构建的机器更优越,如今他意识到:“我们现在拥有的数字智能可能已比大脑更优越。只是规模还没有扩展得那么大。”鉴于人工智能公司目前扩大模型规模的速度,可能不到五年,AI系统的连接数将达到100万亿个,大致相当于人脑神经元之间的连接数。他为此感到担忧,辞去了谷歌副总裁和工程专家的职务,以便自由发声。他接受了一系列采访,阐述人工智能的危险以及他对帮助创造这项技术的懊悔。

  英国出生和长大的辛顿,家族中有多位杰出人物,其中堂姐琼·辛顿(中文名寒春)是参与曼哈顿计划的为数不多的女科学家之一。她参与制造的核武器被投放在广岛和长崎之后,成为一名和平人士,1948年移居中国后,余生的大部分时间在中国的奶牛场工作。辛顿自己的退休计划同样充满田园风:他打算重拾获博士学位之前从事过的木工活。

  李飞飞表示:“科技赋予我们力量,但随之而来的是危险。我认为人工智能也是如此。”

  她出生于中国,15岁时移居美国,在普林斯顿大学学习物理和计算机科学,并在加州理工学院获得电气工程博士学位。2006年开始为ImageNet项目工作,这是一个带有内容文字描述的图像数据库。她的研究为今天运行的图像识别AI系统奠定了基础,并扩大了AI在医疗保健领域的应用。作为美国非营利组织“人工智能为大家”组织的联合发起人,她一直大力倡导人工智能的多样性和包容性。

  除了2017年至2018年在谷歌工作外,她的职业生涯一直在学术界。作为美国国家人工智能研究资源工作组的成员,她呼吁政府提供AI计算资源。她和同事们的努力似乎正在取得成果。作为斯坦福大学人工智能研究所的联合主任,她和孩子们一起观看电影《奥本海默》,被电影与现实的相似之处所打动,表示“非常深刻地感受到科学家的责任感,我们都是世界的公民”。

  曾毅的研究主要围绕类脑人工智能、人工智能哲学与伦理展开。他读大学二年级时,在人工智能导论课的第一节课上,教授放映了史蒂文·斯皮尔伯格2001年导演的电影《人工智能》。在一个场景中,两位研究人员讨论模拟人类大脑,以制造一个会爱的机器人,他受到了启发。“这就是我一生想要做的事情。也就是说,制造一个能爱人类的机器人。”

  曾毅试图建立“大脑启发的智能”——一种被设计成尽可能与人类大脑相似的AI系统——希望它们能有道德感。大约在2016年,曾毅开始更加关注AI系统带来的风险,花更多的时间与政策制定者合作,期望制定有利于AI发展的规则。他带领团队撰写了《人工智能北京共识》,也帮助制定了联合国教科文组织关于人工智能伦理的建议,倡导加强国际合作。他对《时代》周刊表示:“我觉得我有责任让世界知道,中国的科学家和政策制定者确实有着类似的想法。”他认为中美两国在对待人工智能风险的态度方面有很多共同之处,在人工智能安全治理方面,全球别无选择、必须合作。

  此外,图灵奖获得者、元宇宙平台公司首席AI科学家的扬·莱坎(中文名杨立昆),图灵奖获得者、蒙特利尔学习算法研究所科学主任约书亚·本乔,OpenAI首席执行官萨姆·奥尔特曼,xAI创始人埃隆·马斯克,创新工场董事长兼首席执行官李开复,英伟达联合创始人、首席执行官兼总裁黄仁勋、以及“深度学习”人工智能公司创始人吴恩达,前谷歌首席执行官埃里克·施密特等也榜上有名。

  榜单上还有质疑AI对社会影响或尝试人工智能技术的创意人士,包括音乐家、科幻作家、电影制作人等。(编译/操凤琴)