近日,包括 、、、BBC 和 Bumble(约会 App)在内的 10 家公司已经签署了一套新的指导方针,关于如何负责任地构建、创造和分享人工智能生成的内容。
该指导方针呼吁技术的建设者如 ,和合成内容的创造者和分销商如 BBC 和 ,以更透明的态度指出技术能做什么和不能做什么,并且当人们可能在与合成内容互动的时候提醒他们。
(资料图片仅供参考)
这些自愿性质的建议是由非营利性人工智能研究机构 Partnership on AI(PAI)与 50 多个组织协商后提出的。PAI 的合作伙伴包括大型科技公司、学术机构、民间社会组织和媒体机构。最初承诺接受指导方针的 10 家公司是 、BBC、CBC(加拿大广播公司)、Bumble、、、Witness 和合成媒体初创公司 Synthesia、D-ID 和 Respeecher。
生成式人工智能目前仍处于野蛮生长的时期,参与制定了指导方针的生成式人工智能专家亨利·阿杰德()表示,他希望公司将该技术纳入业务时,可以从指导方针中找到他们需要关注的要点。
加州大学伯克利分校研究合成媒体和深度造假技术的教授哈尼·法里德()说,提高人们的认知并开始讨论以负责任的方式来思考合成媒体是很重要的。
但他补充说,“自愿性的指导方针和原则很少起作用。”
虽然像 这样的公司可以尝试为他们创造的技术,比如给 ChatGPT 和 DALL-E设置保护措施,但其他尚未加入协议的参与者,比如 (它创建了知名的开源图像生成人工智能模型 Stable Diffusion),仍可以让人们生成不恰当的图像和深度伪造内容。
说:“如果我们真的想解决这些问题,我们就必须认真对待他们。”他希望云服务提供商和应用商店,如、、和运营的应用商店,都参与到 PAI 中,禁止人们使用深度伪造技术去创建未经授权的图片。他认为,在所有人工智能生成的内容上使用水印应该是强制性的,而不是自愿的。
的高级研究科学家伊尔克·德米尔()认为,现在缺失的重要一点是,人工智能系统本身将如何变得更负责。他领导着生成式人工智能的负责任开发工作。这可能包括更多关于人工智能模型如何训练的细节,其中包括使用哪些数据,以及生成人工智能模型是否有任何偏见。
该指导方针并未提到确保生成式人工智能模型的数据集中是否存在有毒内容。数字权利组织 Access Now 的高级政策分析师丹尼尔·卢弗()说:“有毒内容是让这些系统造成最严重伤害的方式之一。”
这些指导方针包括了一系列这些公司想要阻止的危害,如欺诈、骚扰和虚假信息。但补充说,一个总是在创造白人的生成式人工智能模型也会造成伤害,而且目前还没有被明确提及。
提出了一个更基本的问题。既然这些公司都承认这项技术可能会导致一些严重的危害,并提供了减轻这些危害的方法,“为什么他们不想一想,或许我们一开始就不应该这样做呢?”