首页 / 科技界 / 正文

聊天机器人:大型科技公司呼吁放缓人工智能的“近乎滑稽”的延迟

放大字体  缩小字体 2023-06-15 21:12  浏览次数:1188


人工智能专家、著名科学家、埃隆·马斯克(Elon Musk)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)呼吁停止人工智能工具军备竞赛,这一戏剧性的呼吁令人欣慰。

如果这场争夺人工智能霸主地位的商业战斗没有停顿,社会就会凝视着一个面目全非的未来。

然而,令人不安的是,直接参与创造这些人工智能工具的行业和人物现在才意识到,它们可能离太阳太近了。未来生命研究所(Future Life Institute)的一封公开信指出,如果没有适当的尽职调查,这项技术将对我们在地球上的生活方式造成生死存亡的改变。

这封公开信吸引了1300多名行业专家、首席执行官和学者的签名。这封信的网站上已经被签名淹没了,不得不暂停在信上签名。

它要求立即暂停训练比GPT-4更强大的人工智能系统六个月。这将包括暂停训练不足的GPT-5。

不幸的是,这封信没有提到如何验证这种停止。但它表示,“如果这种暂停不能迅速实施,各国政府应介入并实施暂停”。

澳大利亚人权委员会在其2021年人权与技术最终报告中提出了38项建议。自那以后,市场出现了一系列活动,但几乎没有具体行动——因此,短期内似乎不太可能出台这样的监管。

对人权的威胁

在过去6个月里,企业一直在快速开发和部署越来越强大的人工智能工具。他们似乎无视如何最好地控制这些产品或其长期后果。

在这六个月里,报纸上充斥着对人工智能工具的人权风险的担忧。

尽管科技公司早就意识到可能存在“一些问题”,但它们在公开提出这一问题和针对这些担忧采取行动方面行动迟缓。

如果没有监管和保障措施,这些人工智能工具从根本上来说是有问题的。例如,这些技术可能会让社会与口齿清晰、有说服力的虚假信息运动的海啸作斗争——这些运动可以通过人工智能工具廉价地开发出来,以制造分裂。

我们可能还会遇到人工智能聊天机器人,许多专家将其视为搜索引擎的下一代,它们会给出种族主义或歧视女性的答案——尽管一些组织正在采取很多措施来补救这一问题。

不寻常的方法

OpenAI的培训依赖于剥削肯尼亚工人,冒着用户隐私的风险,根深蒂固的偏见和歧视,传播虚假信息(被称为幻觉)或促进有害的宣传,公众已经意识到这些技术的固有缺陷一段时间了。

因此,创造这些产品的技术专家花了这么长时间才赶上,这几乎是滑稽的。

对于传统上采取“快速行动,打破陈规”操作方式的科技行业来说,这次暂停是一个重大转变。

硅谷和科技神童们往往固执地追求技术进步高于一切,现在他们愿意停下来,考虑他们开发的技术可能会对人类产生怎样的负面影响,这是一个罕见的时刻。

也许这是科技行业的“伊卡洛斯”时刻,因为飞得太接近太阳的公司开始感到它们的蜡翅膀化了。

希望这标志着硅谷对技术进步的态度发生了转变——其特点是加强审查,坚持以人权为中心的设计和部署。

这是一个发人深省的时刻,它证明了社会所处的悬崖边缘——我们能否开发出改善我们生活的人工智能,而不危及我们的人权或威胁我们的生存?

希望这次暂停不是太少,也不是太迟。

帕特里克·胡顿(Patrick Hooton)是澳大利亚人权委员会的人权顾问(商业和技术)。


声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知,立即做删除处理。
违法不良信息举报邮箱
桂ICP备2023015042号