Descargitas

来自中国的最新突发新闻。

微软的 Kate Crawford:“人工智能既非人工智能也非智能” | 人工智能 (AI)

凯特·克劳馥 它研究人工智能的社会和政治影响。 她 南加州大学传播学、科学与技术研究教授和高级首席研究员 微软 搜索. 她的新书, 人工智能地图集,着眼于创造 AI 需要什么,以及它重塑我们的世界时的利害关系。

你写了一本批评人工智能的书,但你为其中一家公司工作 领导者在他们的传播。 这个圆怎么平方?
我在微软的研究部门工作,这是一个独立于产品开发的独立组织。 不同寻常的是,在其 30 年的历史中,它聘请了社会学家来批判性地考虑技术是如何构建的。 在内部,我们通常能够在系统广泛部署之前及早看到缺点。 我的书没有经过任何出版前审查——微软的研究不需要它——我的实验室领导提倡提出尖锐的问题,即使答案包括对当前技术实践的批判性评估。

这本书的目的是什么?
人工智能的这种愿景通常是抽象的和非物质的。 我想从更广泛的意义上展示人工智能是如何制造的——自然资源的成本、工作流程及其分类逻辑。 为了说明这一点,我去了包括矿山在内的站点,以查看从地壳和亚马逊运营中心进行的必要提取,以了解受算法管理系统约束对工人的身心伤害。 我希望通过展示人工智能系统的工作原理——通过设置生产结构和物理事实——我们将更准确地计算影响,并邀请更多人参与对话。 这些系统部署在许多部门,没有严格的监管、同意或民主辩论。

人们应该了解 AI 产品是如何制造的?
我们不习惯从环境成本的角度考虑这些系统。 但是说,“嘿 Alexa,向我要一些厕纸”,就需要这条横跨地球的提取链……要使这项环保技术成为一项环保技术,我们还有很长的路要走。 此外,这些系统可能看起来是自动化的,但当我们拉开帷幕时,我们会看到大量低薪劳动力,从团队合作整理数据到无休止的苦差事洗牌亚马逊箱子。 人工智能既不是人工的,也不是智能的。 它由自然资源和执行任务的人员组成,使系统显得独立。

偏见问题在人工智能技术中有详细记录。 更多的数据能解决这个问题吗?
偏见是我们所讨论的各种问题的一个非常狭隘的术语。 我们一次又一次地看到这些系统产生错误——女性在信用算法方面的可信度较低,黑人面孔被错误分类——而回应是:“我们只需要更多的数据。” 但我试图审视这种更深层次的分类逻辑,并开始看到不同形式的区别,不仅体现在系统的实施上,还体现在系统是如何构建和训练来看待世界的。 机器学习程序中使用的训练数据集 随便将人分为一种性别; 它根据肤色将人分为五个种族类别之一,并根据人的外表试图确定道德或伦理品格。 你可以根据外表做出这些决定的想法有一个黑暗的过去,不幸的是,评级政治已经隐藏在人工智能的支柱中。

你是独特的 图像网,一个大型公开可用的训练数据集,用于了解事物…
ImageNet 由 20,000 多个类别的约 1400 万张图像组成,是机器学习历史上最重要的训练数据集之一。 它用于测试 高效的物体识别算法. 它由斯坦福大学的一组研究人员于 2009 年推出,他们从网络上挖掘出大量图像,并根据 WordNet(一个创建于 1980 年代的词汇数据库)中的名称为它们命名。

从 2017 年开始, 我和艺术家 Trevor Baglin 做了一个项目 看看人们是如何分类的。 我们发现了一些可怕的分类术语,这些术语是厌恶女性的、种族主义的、有能力的和极端的判断力。 人们的照片与诸如小偷疯子、酒鬼、坏人、壁橱女王、应召女郎、荡妇、吸毒者等词相匹配,我不能在这里说更多。 ImageNet 现在有 删除多类明显有问题的人 – 绝对是一个改进 – 但是,问题仍然存在,因为这些培训套件仍在种子网站上传播 [where files are shared between peers].

我们可以研究 ImageNet 只是因为它是公开的。 科技公司保留了大量的训练数据集,并且它们是完全保密的。 他们窃取了我们上传到照片共享服务和社交媒体平台的照片,并将它们变成了私人系统。

你驳斥使用人工智能来识别感觉,但你 在公司工作 出售人工智能情感识别技术. 是否应该使用人工智能来检测情绪?
你可以从某人的脸上看出他们的感受的想法是非常错误的。 我不认为这是可能的。 我争辩说是的。 急需的组织领域之一. 今天的大多数情绪识别系统都是基于 1970 年代发展起来的心理学推理——在那个时候最为显着。 保罗·埃克曼 这就是说,我们都会在脸上表现出六种普遍的情绪,并且可以用正确的技巧来解读。 但是从一开始就有反对意见,最近的工作表明它们之间没有可靠的关系 面部表情和我们的实际感受. 然而,我们有科技公司表示,只要观察情绪就可以提取情绪 人脸视频. 我们甚至看到它内置于汽车软件系统中.

当你说我们需要少关注人工智能的道德而更多地关注权力时,你是什么意思?
道德是必要的,但还不够。 更有用的是这样的问题,谁受益,谁受到这个人工智能系统的伤害? 真的是把权力交到强者手中吗? 我们一遍又一遍地看到,从面部识别到工作场所跟踪和监控,这些系统正在为已经强大的组织——企业、军队和警察——赋予权力。

需要什么来改进?
更强大的组织系统、更高的准确性和对如何创建训练数据集的更大责任。 在这些讨论中,我们还需要不同的声音——包括那些看到并忍受这些系统缺点的人。 我们需要一种新的拒绝主义来挑战仅仅因为技术可以构建就必须部署的说法。

有希望吗?
事情如火如荼,给了我希望。 今年4月,欧盟发布了人工智能综合法规初稿。 澳大利亚还发布了监管人工智能的新指南。 有漏洞需要补 但是我们现在开始意识到这些工具需要更强大的障碍。 它给了我同样多的乐观,因为监管的进步是积极分子鼓动变革的工作。

人工智能伦理研究员 提姆尼特·吉布鲁 逼出来的 去年年底,在其搜索主管批评谷歌之后。 行业主导的现金的未来是什么?
Google 对 Timnit 的处理震惊了业界和学术界。 好消息是我们还没有看到沉默。 相反,Timnit 和其他强大的声音继续大声疾呼,并推动采用更公平的方法来设计和部署技术系统。 一个关键因素是确保行业内的研究人员能够在没有公司干预的情况下发表文章,从而促进大学寻求提供的同样的学术自由。

人工智能地图集 由 Kate Crawford 撰写,耶鲁大学出版社出版(20 英镑)。 支持 监护人 索取您的副本 监护人书店. 可能会收取运费

READ  勇气将开始录制语音聊天以减少毒性