Descargitas

来自中国的最新突发新闻。

微软正在预览 Azure 的 Copilot 附加组件

微软正在预览 Azure 的 Copilot 附加组件

然后 点燃2023 在微软本周的会议上,它展示了用于简化 Azure 云服务管理的 Copilot 工具,以及简化在 Azure 平台上构建和部署人工智能 (AI) 应用程序的工具。

此外,微软还推出了 微软副驾驶工作室是一种低代码工具,可自动执行在 Microsoft 之前推出的 Microsoft Copilot for Microsoft 365 工具中创建数据集成插件和添加自定义助手的过程。

适用于 Azure 的微软助手 利用大型语言模型 (LLM),使 IT 团队能够使用自然语言来构建、配置、发现 Azure 服务并对其进行故障排除。 它还使 IT 团队能够创建复杂的订单、提出问题并优化成本。

微软 Azure Core 公司副总裁 Erin Chappell 告诉 Ignite 与会者,微软和一些客户已经使用 Microsoft Copilot Azure 来管理他们的 Azure 基础设施。

从长远来看,微软显然正在朝着使用……简化人工智能应用程序的构建和部署的方向发展。 Azure人工智能工作室,一个在Azure平台上调用微软提供的AI模型的框架。 目标是让组织能够根据他们训练过的人工智能模型创建自己的副驾驶。

对于组织来说,利用 AI 模型构建应用程序还处于早期阶段,但很明显,DevOps 和机器学习操作 (MLOps) 以及数据工程和网络安全最佳实践将需要融合。 微软正在将 Azure AI Studio 作为框架,帮助 IT 组织实现这一目标。

当然,微软并不是唯一一家拥有类似雄心的 IT 基础设施资源提供商,但由于其对 OpenAI 的投资和对 GitHub 的收购,它在定义大规模构建 AI 应用程序的框架方面已经取得了长足的进步。 上周,GitHub 展示了其已提供的 Copilot 工具的扩展,可帮助开发人员编写代码,利用生成式 AI,根据 GitHub Issues 项目管理软件中编写的自然语言描述自动建议可编辑的应用程序构建计划。 Copilot Workspace 将一键创建可编辑文档,可用于生成代码,然后开发人员可以直观地检查。 应用程序开发人员或 Copilot Workspace 平台检测到的任何错误也可以自动修复。

与此同时,GitHub 扩大了 Copilot Chat 的范围和范围,使开发人员能够更轻松地使用自然语言发现代码库中的问题。

生成式人工智能已经对应用程序开发速度产生了巨大影响,但该代码仍需要审查。 Chat GPT 基于大型通用语言模型 (LLM),该模型通过从网络上提取不同质量的代码进行训练。 因此,平台生成的代码可能包含安全漏洞或无效。 在许多情况下,专业开发人员仍然更喜欢编写自己的代码。

当然,并非每个编程任务都需要相同水平的编程经验。 例如,在许多情况下,ChatGPT 将生成一个可以在 DevOps 工作流程中放心重用的脚本。 由于 GitHub Copilot 等工具,现在不乏中级开发人员编写更好的代码,很快,特定领域的 LLM 认证将使得基于经过验证的代码示例编写一致更好的代码成为可能。

下一个挑战将是找到一种方法来管理不断增加的代码量。 毫无疑问,人工智能将应用于管理 DevOps 管道,但至少目前,应用人工智能编写代码的速度已经超过了 DevOps 团队管理它的能力。

READ  Twitter 禁止“误导性”气候变化广告; 测试视频评论的“CC”按钮