根据巴斯大学和德国达姆施塔特工业大学的最新研究,ChatGPT 和其他大型语言模型 (LLM) 无法独立学习或获取新技能,这意味着它们不会对人类构成生存威胁。
研究,今天作为会议记录的一部分发表 第62届计算语言学协会年会 (ACL 2024) – 第一届自然语言处理国际会议 – 揭示了法学硕士持有者具有遵循指示并擅长语言掌握的表面能力,但是,如果没有明确的指示,他们没有能力掌握新技能。这意味着它们本质上仍然是可控的、可预测的和安全的。
这意味着它们本质上仍然是可控的、可预测的和安全的。
研究团队得出的结论是,机器学习程序(在更大的数据集上进行训练)可以继续部署而无需担心安全问题,尽管该技术仍然可能被滥用。
随着它们的成长,这些模型可能会生成更复杂的语言,并且能够更好地遵循清晰、详细的指令,但不太可能获得复杂的推理技能。
他说:“普遍认为这种人工智能对人类构成威胁,阻碍了这些技术的广泛采用和发展,也转移了我们对真正需要关注的问题的注意力。” 哈里什·泰亚尔·马达布什博士巴斯大学计算机科学家,也是法学硕士持有者“新兴能力”新研究的合著者。
由德国达姆施塔特工业大学 Irina Gourevitch 教授领导的合作研究团队进行了实验,测试 LLM 学生完成模型以前从未遇到过的任务的能力,即所谓的突现能力。
例如,法学硕士学生可以回答有关社交场合的问题,而无需经过明确的培训或编程。虽然之前的研究表明这是模型对社交情境的“了解”的结果,但研究人员表明,这实际上是模型利用 LLM 学生众所周知的能力来完成任务的结果,该能力基于提供给 LLM 学生的一些示例。他们被称为“在情境中学习”。
通过数千次实验,该团队证明,法学硕士持有者遵循指令的能力(ICL)、记忆力和语言能力的结合可以解释法学硕士持有者所表现出的能力和局限性。
Tayyar Madabushi 博士说:“令人担心的是,随着模型变得越来越大,它们将能够解决我们目前无法预测的新问题,这构成了威胁,即这些较大的模型可能会获得危险的能力,包括推理和规划。
“这引发了很多讨论——例如, 人工智能安全峰会 去年,我们在布莱奇利公园进行了一项研究,我们被要求对此发表评论——但我们的研究表明,对模型消失并做一些完全出乎意料的、创新的和潜在危险的事情的恐惧是没有根据的。
“对法学硕士学生构成的生存威胁的担忧不仅限于非专家,世界各地一些领先的人工智能研究人员也表达了这种担忧。”
然而,Taiyar Madabushi 博士声称这种担心是没有根据的,因为研究人员的测试清楚地表明法学硕士学生缺乏新兴的复杂思维能力。
他补充说:“虽然解决当前滥用人工智能的可能性很重要,例如制造假新闻和高欺诈风险,但根据感知到的存在威胁制定法规还为时过早。”
“这里重要的是,对于最终用户来说,这意味着依靠深度学习模型来解释和执行需要复杂思维而没有明确指导的复杂任务可能是一个错误,相反,用户可能会从指定他们需要的内容中受益。明确地描述它,并尽可能为除最简单的任务之外的所有任务提供示例。
古尔维奇教授补充道:“……我们的结果并不意味着人工智能根本不构成威胁,相反,我们表明与特定威胁相关的复杂思维技能的出现并没有证据支持,而且我们可以控制学习。毕竟,LLM 学生的学习过程非常顺利。”“因此,未来的研究应该关注模型带来的其他风险,例如它们被用来生成假新闻的可能性。”
/通用版本。来自原始组织/作者的材料本质上可能是按时间顺序排列的,并且为了清晰度、风格和长度而进行了编辑。 Mirage.News 不采取公司立场或政党立场,本文表达的所有意见、立场和结论仅代表作者的观点。完整视图在这里。
More Stories
《东京恶习》制片人详述日本走向全球制作中心之路
康拉德·科尔曼仅使用可再生能源再次改变了世界
新款 MacBook Pro 为苹果一周的重大新闻画上了句号