您现在的位置:首页 >> 自然生态

人工智能“宪法”出炉 初创公司发布AI价值观价值观

时间:2024-02-03 12:20:46

亏联社

美东北时间周二,谷歌全力支持的智能(AI)初创该公司Anthropic公布了一套针对AI发展的书面道德规范信念,该信念主要等同于于基础训练和保护智能。

Anthropic筹组于2021年,创始团队大都来自ChatGPT的游戏公司OpenAI,也有类似ChatGPT的智能聊天机器,其名叫“Claude”,可以管控一系列更为复杂的任务。

Anthropic一直强调其旨在构建“可靠、可解读和可操纵的智能种系统”,比如不不能得知用户如何制造枪械,也不不能使用带有种族的语言。

这次公布的智能道德规范价值原则上也被该该公司称为“Claude选举法”,这些原则上独有了几个举例来说,仅限于联合国申明,甚至还有苹果的数据人身必需规则。

上周四,谷歌、Google公司、OpenAI和Anthropic四家该公司的执行官执行官们受邀在新泽西州白宫与新泽西州副总统怀特面见,讨论了有关智能的一些关键问道题,新泽西州总统乔·拜登也短暂出席了此次不能议。

根据乔·拜登在推特上发布的一段视频,他在不能上对这些该公司执行官执行官们透露:“你们打算做的事情具巨大的潜力,但同时也存大巨大的风险。”

怀特在一份公开信之前说:“科技该公司需承担道德规范和权利责任来确保其系列产品的必需。每家该公司都必须遵守现行权利,保护新泽西州公民权。”

没想到在面见几天之前,Anthropic执行官执行官达里奥·苏拉代便做出了实际行动。

大多数智能聊天机器种系统在基础训练过程之前比如说从关公那里获得反馈,以确定哪些底物意味著是有害的或嘲弄性的。但这些种系统很难预报人们意味著不能问道的某些问道题,因此它们往往不能尽量避免一些意味著有引起争议的话题,比如政治和种族。

Anthropic则使用了不同的原理,它为其智能聊天机器Claude提供了一套书面的道德规范信念,供其在决定如何反问道问道题时阅读和学习。

Anthropic在周二的一篇博客之前讲到,这些价值原则上仅限于“自由选择劝告和支持酷刑、奴役、可怕和可怕或有辱人格的反问道”。Claude还被要求自由选择最不意味著被视为嘲弄非西方文化基本上的反问道。

在一次采访之前,Anthropic的联合创始人杰克·柯林斯透露,可以修改种系统的形态,以便在提供有用的答案和无害之间拿下平衡。

柯林斯认为:“几个翌年后,我预报社会名流将比较关注不同智能种系统的道德规范信念,而像‘Claude选举法’这样的原理将有助于这种讨论,因为我们认为有必要写下这些价值原则上。”

眼整形
咽炎喉咙痛吃什么药
藿香正气口服液功效和作用
孩子吃饭没胃口怎么办
容易感冒吃什么维生素