“关于人工智能的大问题在使用Alexa时就显而易见,哈佛教授表示担忧只需问一下亚马逊是否垄断”
Harvard professor's concern about the major issue of artificial intelligence can be seen when using Alexa, just ask whether Amazon is monopolizing.
当Alexa以这种方式回应时,很明显它把开发者的利益放在了你的利益之前。然而,通常情况下,人们很难确定一个AI系统是为谁服务的。为了避免被这些系统操纵,人们需要学会怀疑地对待人工智能。这意味着有意识地构造你给予它的输入,并对其输出进行批判性思考。
新一代的AI模型具备更复杂、更不机械的回应能力,使得很难判断它们说话时谁会受益。互联网公司操纵你所看到的内容以追求自己的利益并不新鲜。谷歌的搜索结果和你的Facebook信息流中充斥着付费内容。Facebook、TikTok和其他平台通过操纵你的信息流来增加你在平台上的停留时间,从而获得更多的广告展示量,而与此同时却牺牲了你的福祉。
与其他互联网服务相比,人工智能系统的区别在于它们的互动性,以及这些互动将越来越像人际关系。从现有的技术来看,很容易想象到未来的人工智能将为你计划旅行、代表你进行谈判,或者充当心理治疗师和生活指导员。
它们可能会全天候陪伴在你身边,对你了如指掌,并能够预测你的需求。这种对网络上各种服务和资源的对话式接口在现有生成式AI(如ChatGPT)的能力范围之内。它们正在成为个性化的数字助手。
- 特斯拉CEO埃隆·马斯克对字母X的长期痴迷:他为此刚刚“告别”了蓝色的Twit...
- “旧金山警方中断了对标志性的Twitter标牌的拆除,但得出结论称‘没有犯罪...
- 什么是Worldcoin?一份简明英文指南,介绍了Sam Altman的球形装置,可以...
作为一名安全专家和数据科学家,我们认为依赖这些人工智能的人们必须完全信任它们来应对日常生活。这意味着他们需要确保这些人工智能不会暗地里为他人工作。在整个互联网上,那些看起来为你服务的设备和服务实际上背地里却在对你起反作用。智能电视监视你,手机应用收集并出售你的数据,许多应用和网站通过黑暗模式来操纵你,这些设计元素故意误导、强迫或欺骗网站访问者。这就是监控资本主义,而人工智能正在成为其中的一部分。
黑暗中
很可能,人工智能会让情况变得更糟。为了成为真正有用的数字助手,它必须真正了解你。比你的手机更了解你。比谷歌搜索更了解你。或许,比你的亲密朋友、亲密伴侣和心理治疗师更了解你。
你没有理由相信当前领先的生成式人工智能工具。暂且不谈GPT和其他大型语言模型产生的幻觉、虚构的“事实”。我们预计,在未来几年技术改进的过程中,这些问题将得到解决。
但你不知道人工智能是如何配置的:它们经过了怎样的训练,获得了什么信息,以及接受了什么指令。例如,研究人员发现了规定微软Bing聊天机器人行为的秘密规则。它们大体上是无害的,但可以随时改变。
赚钱
许多这些人工智能是由一些最大的科技垄断企业耗费巨资创建和训练的。它们被免费或以极低的价格提供给用户使用。这些公司将需要以某种方式盈利。与互联网的其他部分一样,这种方式很可能包括监视和操纵。
想象一下,你向你的聊天机器人询问下一次度假的计划。它选择某家航空公司、酒店连锁店或餐厅是因为它们对你来说是最好的,还是因为它的制造商从这些企业那里获得了回扣?就像在谷歌搜索中的付费结果、Facebook的新闻推送广告以及Amazon查询中的付费位置一样,这些付费影响力很可能随着时间的推移变得更加隐蔽。
如果你向聊天机器人询问政治信息,结果是否受到拥有该聊天机器人的公司的政治立场的影响?或者是支付最多钱的候选人?甚至是那些在训练模型时使用的人群的观点?你的人工智能代理是不是秘密的双重间谍?目前还没有办法知道。
合法的信任
我们认为人们应该对技术抱有更高的期望,科技公司和人工智能可以变得更加值得信赖。欧盟提出的《人工智能法案》采取了一些重要的措施,要求透明公开用于训练人工智能模型的数据,减轻潜在偏见,披露可预见风险并报告行业标准测试结果。
大多数现有的人工智能都未能遵守这项新兴的欧洲法规,尽管最近来自参议院多数党领袖查克·舒默的催促,美国在此类监管方面远远落后。
未来的人工智能应该是值得信赖的。除非政府为人工智能产品提供强有力的消费者保护措施,否则人们将不得不自行猜测人工智能可能存在的风险和偏见,并减轻其对人们体验的最坏影响。
因此,当你从人工智能工具中获得旅行建议或政治信息时,要以同样怀疑的眼光对待,就像你对待广告牌广告或竞选志愿者一样。尽管技术上很神奇,但人工智能工具可能只不过是一样。
布鲁斯·施奈尔(Bruce Schneier),哈佛肯尼迪学院公共政策兼职讲师,以及内网与社会伯克曼兼职研究员纳森·桑德斯(Nathan Sanders)
本文以创作共用许可证从The Conversation转载。阅读原文。