OpenAI首席科学家有个计划 寻找方法控制超级人工智能

2023-12-28 深圳推广 前沿资讯

早在OpenAI成立之初,便承诺构建有益于全人类的人工智能,即使这些人工智能有可能比其创造者更聪明。自ChatGPT首次亮相以来,OpenAI的商业野心逐渐凸显。最近,该公司宣布成立了一个致力于研究未来超级人工智能的新研究团队,并已经开始取得一些成果。

OpenAI首席科学家有个计划 寻找方法控制超级人工智能 前沿资讯 第1张

OpenAI的研究人员利奥波德·阿森布伦纳(Leopold
Aschenbrenner)指出:“通用人工智能(AGI)正在迅速接近,我们将看到具有巨大能力但也可能非常危险的超智能模型,而我们还没有找到控制它们的方法。”他参与了今年7月成立的“超级对齐”(Superalignment)研究团队。OpenAI表示,将把其可用算力的五分之一用于“超级对齐”项目,以探索如何确保超级人工智能的安全性和可控性。

OpenAI最近发布了一篇研究论文,介绍了一项实验结果。该实验旨在测试一种方法,让一个较差的人工智能模型在不降低智能的情况下指导一个更聪明的人工智能模型。尽管所涉及的技术还没有超过人类的灵活性,但该实验是为了应对未来人类必须与比自己更聪明的人工智能系统合作的时代而设计的。

在实验中,OpenAI的研究人员检查了一种被称为监督的过程,它被用来调整像GPT-4这样的系统,使其更有帮助、更少伤害。GPT是ChatGPT背后的大语言模型。目前,这涉及到人类向人工智能系统反馈哪些答案是好的,哪些是坏的。随着人工智能的进步,研究人员正在探索如何将这一过程自动化以节省时间。此外,这也是因为他们认为,随着人工智能变得越来越强大,人类可能无法提供有用的反馈。

在对照实验中,研究人员使用OpenAI于2019年首次发布的GPT-2文本生成器来教授GPT-4,并测试了两种解决方法。其中一种方法是逐步训练更大的模型,以减少每一步的性能损失;另一种方法是对GPT-4进行了算法调整,允许较强的模型遵循较弱模型的指导,而不会削弱其性能。第二种方法被证明更有效,尽管研究人员承认这些方法并不能保证更强的模型会完美运行,但可以将其作为进一步研究的起点。

人工智能安全中心主任丹·亨德里克斯(Dan
Hendryks)表示:“很高兴看到OpenAI主动解决控制超级人工智能的问题,我们需要多年的努力来应对这一挑战。”人工智能安全中心是旧金山一家致力于管理人工智能风险的非营利组织。

阿森布伦纳与“超级对齐”团队的其他两名成员科林·伯恩斯(Collin Burns)和帕维尔·伊兹梅洛夫(Pavel
Izmailov)在接受采访时均表示,他们为迈出重要的第一步感到鼓舞,认为这有助于驯服潜在的超级人工智能。伊兹梅洛夫打了个比方:“就像一个六年级的学生,尽管他们比大学数学专业的学生所掌握的数学知识要少,但他们仍然能够向大学生传达他们想要达到的目标,而这正是我们所追求的效果。”

“超级对齐”团队由OpenAI的首席科学家和联合创始人伊利亚·苏茨凯弗(Ilya
Sutskever)共同领导。苏茨凯弗也是上个月投票解雇首席执行官萨姆·奥特曼(Sam
Altman)的原董事会成员之一。不过后来他撤回了这一决定,并威胁说如果不让奥特曼复职,他就辞职。苏茨凯弗是这篇最新论文的合著者,但OpenAI拒绝让他讨论这个项目。

上个月,奥特曼与OpenAI达成了协议,董事会的大部分成员都已经辞职,苏茨凯弗在OpenAI的未来也充满了不确定性。尽管如此,阿森布伦纳表示:“我们非常感谢苏茨凯弗,他是这个项目的推动者。”

在人工智能领域,OpenAI的研究人员并不是第一个尝试使用现有技术来测试有助于驯服未来人工智能系统的团队。然而,与之前的企业和学术实验室的研究一样,我们无法确定在精心设计的实验中有效的想法在未来是否实用。研究人员将让一个较弱的人工智能模型训练一个更强的人工智能模型,他们称这种能力为“解决更广泛的‘超级对齐’问题的关键组成部分”。

这种人工智能对齐实验也引发了一个关键问题:控制系统的可信度有多高?OpenAI新技术的核心在于,更强大的人工智能系统能够自己决定可以忽略较弱系统的哪些指导,这种选择可能会使其忽略可能阻止其未来以不安全方式行事的重要信息。为了使这样的系统有效,需要在提供一致性方面取得进展。伯恩斯强调:“你最终需要高度的信任。”

加州大学伯克利分校研究人工智能安全的教授斯图尔特·拉塞尔(Stuart
Russell)表示,使用不那么强大的人工智能模型来控制更强大人工智能模型的想法已经存在了一段时间。但他也指出,到目前为止,我们还不清楚用于教授人工智能行为的方法是否可行,因为它们尚未能使当前的模型可靠地运行。

尽管OpenAI正在迈出控制更先进人工智能的第一步,但该公司也渴望获得外界的帮助。OpenAI宣布将与谷歌前首席执行官埃里克·施密特(Eric
Schmidt)合作,向外部研究人员提供1000万美元的资助,以鼓励他们在从弱到强的监管、高级模型的可解释性以及针对旨在打破限制的提示下加强模型等领域取得进展。参与撰写这篇新论文的研究人员表示,OpenAI明年还将举行一次关于“超级对齐”的会议。

作为OpenAI的联合创始人,也是“超级对齐”团队的联合负责人,他领导了该公司许多最重要的技术工作。同时,他也是越来越担心如何控制人工智能的知名专家之一,因为人工智能变得越来越强大。今年以来,如何控制未来人工智能技术的问题获得了新的关注,这在很大程度上归功于ChatGPT的影响。苏茨凯弗曾在深度神经网络先驱杰弗里·辛顿(Geoffrey
Hinton)的指导下攻读博士学位。后者于今年5月离开谷歌,以警告人们人工智能在某些任务中似乎正在接近人类的水平。

相关推荐://
  • 全面走向“人工智能+” 国内首个汽车大模型标准发布
    hover

    全面走向“人工智能+” 国内首个汽车大模型标准发布

    IT之家4月28日消息,据央视新闻报道,针对汽车行业全面走向“人工智能+”的趋势和行业需求,中国信息通信研究院今天(28 日)发布了国内首个汽车大模型标准。 据悉,标准主要涵盖三个能力域,其中场景丰富度侧重评估汽车大模···

    2024-04-29
  • 宁德时代首席科学家吴凯 2027年小批量生产全固态电池
    hover

    宁德时代首席科学家吴凯 2027年小批量生产全固态电池

    IT之家今日(4月28日)消息,据界面新闻,宁德时代首席科学家吴凯今日出席 CIBF2024 先进电池前沿技术研讨会。吴凯表示,如果用技术和制造成熟度作为评价体系(以 1-9 打分),宁德时代的全固态电池研发目前处于 4 的水平。 ···

    2024-04-29
  • 微软招揽前Meta高管 增强其人工智能超级计算团队实力
    hover

    微软招揽前Meta高管 增强其人工智能超级计算团队实力

    IT之家4月23日消息,微软正通过招募行业人才来加强其人工智能超级计算团队的实力。周一,微软首席技术官Kevin Scott在领英上发帖宣布,前Meta高管Jason Taylor将加入微软,担任企业副总裁兼CTO副手,帮助公司“构建下一代系统,推动···

    2024-04-23
  • 人工智能解释:训练和推理的关键阶段
    hover

    人工智能解释:训练和推理的关键阶段

    人工智能(ai)、机器学习和生成式ai已成为现代企业技术工具箱的重要组成部分。ai涵盖广泛技术,包括实时语言翻译、面部识别、语音助手、个性化推荐系统和欺诈检测。ai训练和推理过程对于理解模型的功能至关重要。训练涉及使用数据集···

    2024-04-12
  • aigc是什么意思,与人工智能有什么区别
    hover

    aigc是什么意思,与人工智能有什么区别

    什么是 aigc? AIGC(人工智能生成内容)是指由人工智能系统自动生成的内容。它利用机器学习算法和神经网络技术,基于特定数据集或输入提示,创建各种形式的内容,包括文本、图像、代码、音乐、视频等。 AIGC 与人工智能的区别 AIGC ···

    2024-04-03
  • 外媒:美国科技巨头转向墨西哥制造人工智能设备
    hover

    外媒:美国科技巨头转向墨西哥制造人工智能设备

    美国众多顶尖人工智能公司正在敦促制造合作伙伴加快在墨西哥生产人工智能相关硬件的进程。业界高管和分析师透露,包括富士康在内的企业已响应此举,正加大对墨西哥投资。 这些公司正利用2020年生效的美国-墨西哥-加拿大自由···

    2024-04-02
  • 人工智能需要学哪些课程
    hover

    人工智能需要学哪些课程

    成为人工智能研究人员或工程师所需的学科包括:计算机科学基础、数学、机器学习、人工智能技术、特定领域和软技能。 人工智能学习课程 人工智能 (AI) 是一门快速发展的领域,近年来取得了显著进步。为了成为 AI 研究人员或工程师,···

    2024-04-02
  • wifi旁边有个小wifi是什么意思
    hover

    wifi旁边有个小wifi是什么意思

    wi-fi 旁边的小 wi-fi 图标通常表示以下情况:5 ghz 频段(双频路由器)访客 wi-fi 网络wi-fi 信号增强器邻近网络隐藏网络 wifi旁边有个小wifi是什么意思? 当您在设备的 Wi-Fi 设置中看到一个主 Wi-Fi 网络旁边有一个较小的 Wi-Fi ···

    2024-04-01
在线客服 13691917840 提交需求 二维码