人工智能在我们的生活中变得越来越普遍。 不再局限于某些行业或研究机构; 现在每个人都可以使用人工智能。
很难避免产生大量人工智能内容,更难理解被抛出的许多术语。 但是,如果不了解其背后的概念,我们就无法谈论人工智能。
我们整理了一份我们认为每个人都应该知道的术语表,如果他们想跟上的话。
算法
算法 为计算机提供的一组指令,用于解决问题或执行将数据转换为有用信息的计算。
对齐问题
对齐问题是指我们对 AI 系统的预期目标与其产生的输出之间的差异。 可以开发异常系统的功能,但它的行为方式与人类价值观背道而驰。 我们已经看到了这样的例子 2015年 当谷歌图像使用的图像识别算法被发现自动将黑人照片标记为“大猩猩”时。
通用人工智能 (AGI)
通用人工智能 指未来人工智能有望达到(或超过)人类认知能力的假设点。 大多数人工智能专家都同意这会发生,但他们对具体细节持不同意见,例如何时发生,以及是否会产生完全自主的人工智能系统。
人工神经网络 (ANN)
人工神经网络是人工智能的一个分支中使用的计算机算法,称为 深度学习. 它以模拟方式由互连节点层组成 神经回路 来自人脑。
大数据
大数据是指比传统数据更庞大、更复杂的数据集。 这些数据集大大超过了家用电脑的存储容量,帮助现有的人工智能模型以高精度运行。
大数据可以从四个对立面来区分:“Volume”是指数据的总量,“Speed”是指数据增长的速度,“Resolution”是指数据的复杂程度,“Variety”是指不同的它进来的数据格式。
中文房
这 中文房 思想实验最早由美国哲学家约翰·塞尔于1980年提出,认为计算机程序无论设计得多么巧妙,都永远不会有意识,也无法像人类那样真正理解其行为。
这个概念经常出现在关于 ChatGPT 等人工智能工具的对话中,这些工具似乎显示了自我意识实体的属性——但实际上只根据底层模型的预测提供输出。
深度学习
深度学习是人工智能机器学习分支中的一个类别。 深度学习系统使用先进的神经网络,可以处理大量复杂的数据以获得更高的准确性。
这些系统在相对复杂的任务上表现良好,甚至可以表现出类似人类的智能行为。
扩散模型
扩散模型是一种 AI 模型,它通过在删除一组训练数据之前添加随机“噪声”来学习,然后评估差异。 目标是立即识别数据中不明显的潜在模式或关系。
这些模型旨在在遇到新数据时进行自我纠正,因此在存在不确定性或问题非常复杂的情况下特别有用。
人工智能是可解释的
可解释的 AI 是一个新兴的跨学科领域,致力于创造方法 他增加 用户对人工智能系统运行的信任。
由于一些 AI 模型固有的复杂性,它们的内部程序通常是不透明的,我们无法确定它们为什么会产生它们所做的输出。 可解释的人工智能旨在使“黑匣子”系统更加透明。
生成式人工智能
这些是人工智能系统,可以根据提示生成新内容,包括文本、图像、音频和视频内容。 常见示例包括 ChatGPT、DALL-E 2 和 Midjourney。
井号
数据标记是标记数据点以帮助 AI 模型理解数据的过程。 这包括定义数据结构(例如图像、文本、音频或视频)和向数据添加标签(例如标记和类别)。
人类在机器学习开始之前做标记。 标记数据分为不同的数据集,用于训练、验证和测试。
训练集被送入学习系统。 验证集用于检查模型是否按预期执行以及参数调整和训练何时可以停止。 测试套件用于评估最终模型的性能。
大型语言模型 (LLM)
Language Large Models (LLM) 在大量未标记的文本上进行训练。 他们分析数据,学习单词之间的模式,并且可以产生类似人类的反应。 使用大型语言模型的人工智能系统的一些例子是 OpenAI 的 GPT 系列和谷歌的 BERT 和 LaMDA 系列。
机器学习
机器学习是人工智能的一个分支,它涉及训练人工智能系统,使其能够在没有特定人类指令的情况下分析数据、学习模式和做出预测。
自然语言处理 (NLP)
虽然宏语言模型是一种用于与语言相关任务的特定类型的人工智能模型,但自然语言处理是更广泛的人工智能领域,侧重于机器学习、理解和产生人类语言的能力。
边界
参数是用于调整机器学习模型的设置。 将其视为模型在进行预测或执行任务时使用的程序化权重和偏差。
因为参数决定了模型如何处理和分析数据,所以它们也决定了模型的执行方式。 参数的一个例子是神经网络给定层中的神经元数量。 增加神经元数量将使神经网络能够处理更复杂的任务——但代价是计算时间和成本更高。
负责任的人工智能
负责任的人工智能运动提倡以人为本的方式开发和部署人工智能系统。
其中一个方面是在人工智能系统中嵌入规则,使它们遵守道德原则。 这将(理想情况下)防止他们产生有偏见、歧视性或可能导致有害结果的产出。
情感分析
情感分析是自然语言处理中的一种技术,用于识别和解释情感 文字背后的情感. 它捕获隐含信息,例如作者的口音以及表达的积极或消极程度。
监督学习
监督学习是一种机器学习方法,其中标记数据用于训练算法以进行预测。 该算法学习将标记的输入数据与正确的输出相匹配。 从大量示例中学习后,它可以在出现新数据时继续进行预测。
训练数据
训练数据是(通常标记的)数据,用于教 AI 系统如何进行预测。 训练数据的准确性和代表性对模型的有效性有重大影响。
适配器
Transformer是一种主要用于自然语言处理任务的深度学习模型。
该转换器旨在处理序列化数据,例如自然语言文本,并了解不同部分之间的关系。 这可以比作一个人阅读一个句子是如何注意词序来理解整个句子的意思的。
一个这样的例子是生成式预训练转换器 (GPT),ChatGPT 聊天机器人在其上运行。 GPT 范式使用转换器从大量未标记的文本中学习。
图灵测试
图灵测试是机器智能的概念,由计算机科学家艾伦图灵于 1950 年首次提出。
它被认为是一种确定计算机是否可以显示人类智能的方法。 在测试中,计算机输出和人类输出由人类评分者进行比较。 如果输出被认为是无法区分的,那么计算机就通过了测试。
谷歌 拉姆达 和开放人工智能 聊天 据报道它通过了图灵测试——尽管 评论家说 结果揭示了使用测试来比较人类和计算机智能的局限性。
无监督教育
无监督学习是一种机器学习方法,其中算法在未标记的数据上进行训练。 在没有人为干预的情况下,系统会探索数据中的模式,目的是发现可用于进一步分析的不可识别模式。
/ 由 The Conversation 提供。 来自原始组织/作者的这些材料可能具有时间点性质,并且为了清晰、风格和长度而进行了编辑。 Mirage.News 不代表公司立场或立场,此处表达的所有意见、立场和结论均仅代表作者。
“驕傲的網絡狂熱者。微妙迷人的推特怪胎。讀者。互聯網先驅。音樂愛好者。”
More Stories
《东京恶习》制片人详述日本走向全球制作中心之路
康拉德·科尔曼仅使用可再生能源再次改变了世界
新款 MacBook Pro 为苹果一周的重大新闻画上了句号