1、Suno承认使用版权音乐训练AI模型
美国唱片业协会(RIAA)于6月24日起诉Udio和Suno两家音乐生成初创公司,指控这两家公司使用受版权保护的音乐来训练AI模型。这些音乐涉及来自环球音乐集团(Universal Music Group)、索尼音乐公司(Sony Music)和华纳音乐公司(Warner Music)三家唱片公司。
8月1日,音乐AI公司Suno就前述案件发布博文,声称使用数千万张唱片来训练AI模型过程,其中确实有来自上述3家唱片公司的唱片内容,但根据美国版权法的合理使用原则,此类活动属于合理使用范围,这意味着不需要许可证,并指责唱片公司滥用版权。
Suno首席执行官兼联合创始人米奇・舒尔曼(Mikey Shulman)在提交法律文件的同一天发表了一篇博客文章,其中继续说道:“我们根据在开放互联网上可以找到的中高品质音乐来训练我们的模型……开放互联网上的许多内容确实包含受版权保护的材料,其中一些材料为大型唱片公司所有。利用“开放互联网”上的数据训练人工智能模型,与“孩子们在听了摇滚乐之后自己创作摇滚歌曲”没有什么区别。学习不是侵权。过去不是,现在也不是。”(来源:IT之家)
评论:合理使用是美国版权法中的一项重要原则,它允许在特定条件下有限度地使用受版权保护的材料,而无需获得版权持有人的许可。根据美国《版权法》第107条的规定,判断合理使用需要考虑以下几个因素:使用的目的和性质、有版权作品的性质、所使用的内容和数量,以及这种使用对有版权作品的潜在市场或价值所产生的影响。对于AI数据训练是否被认定为合理使用是一个复杂的法律问题,目前美国司法实践中尚无直接针对此类情况的判例。从实践上来看,许多AI模型的训练服务于商业目的,如生成音乐、图像或文本等,可能直接或间接与原作品的市场产生竞争。这种商业性质可能不利于合理使用的认定,且如果AI生成的内容能够替代原作品的市场需求,可能对原作品的市场价值产生负面影响。就这一点而言,AI公司的合理使用抗辩将存在非常大的难度。
因此,Suno公司目前的公告是非常出人意料的,三大唱片公司要举证Suno公司使用了其音乐作品进行训练本身就存在很大的难度,现在Suno公司直接帮三大唱片公司省去了繁琐的事实证明工作,而将案件的核心焦点均集中于对合理使用原则的法律解读和辩论上。这种做法直接放弃了很大一部分的诉讼程序利益,并不符合传统被告的诉讼策略,甚至可谓“昏了头”。当然,也许Suno公司考虑的视角更长远,其是为AI音乐生成行业发声,试图通过舆论关注推动相关法律规则的明确和适应新技术发展的调整。我们也希望这个案件可以尽快审理,对整个AI行业产生正面且积极的作用。
2、在产品描述中使用术语AI会降低购买意愿
华盛顿州立大学的一项研究发现,在产品描述中使用术语AI会降低消费者的购买意愿。研究人员调查了逾千名美国成年人,发现在产品描述中提及AI会削弱情感信任,降低购买意愿。例如,参与者查看了与智能电视相关的描述,一组的描述中有AI,另一组没有,结果看到产品描述含有AI的一组人表示他们不太可能购买这款电视机。对于高风险的产品和服务如医疗设备和金融服务,术语AI会激起更加强烈的负面反应。(来源:Solidot)
评论:当下,多数公司都在想方设法地将产品贴上AI标签,个别公司甚至粗暴地在产品里塞入完全不成熟的AI内容,比如前一段时间谷歌公司的AI搜索功能中就出现让用户用胶水粘披萨、吃石头获取营养的“建议”。这种只剩噱头的AI产品,不仅无法获得消费者的青睐,反而可能存在很大的内容安全风险。对AI行业的开发者而言,其实更重要的是回归用户体验本身,毕竟消费者需要的是好用的产品,而不是高高在上的技术。
3、数十名科学家签署联名信,反对加州AI限制法案
近日,斯坦福大学教授、人工智能领域知名专家李飞飞亲自撰写文章并在《财富》杂志发表,表达了对加州拟议法案SB-1047的深切忧虑。该法案名为“前沿人工智能模型安全创新法案”,旨在对高风险的人工智能模型设立明确的安全标准,以防其被滥用或导致灾难性后果。然而,李飞飞和其他数十名科学家认为,该法案不仅未能解决人工智能潜在的危害问题,反而会对人工智能领域的创新和学术研究造成毁灭性打击。
李飞飞在文章中指出:“加州的SB-1047将产生重大而意想不到的后果。如果该法案成为法律,将损害正在萌芽的人工智能生态系统,不必要地惩罚开发者,扼杀开源社区,并阻碍人工智能学术研究。”她进一步解释道,法案要求模型包含“终止开关”将破坏开源社区,而对开发者施加的责任将迫使他们采取防御策略,从而抑制创新。
除了李飞飞,来自加州大学各校区及其他20多个机构的研究人员也共同起草并签署了一封公开信,从研究者的角度阐述该法案对加州人工智能研究和教育目标造成的损害。联名信中详细列举了法案的不合理之处,包括对开源模型发布带来的“寒蝉效应”,人工智能风险评估的不科学性,以及对学术研究的负面影响。
吴恩达等其他专家也表达了类似观点,认为监管应侧重于应用而非技术本身,以避免限制创新。该法案的最终走向及其对人工智能领域的影响仍待观察。(来源:百朋AI学堂)
评论:SB-1047法案,全称为「前沿人工智能安全创新法案(Safe and Secure Innovation for Frontier Artificial Intelligence Act)」,由加州参议员Scott Wiener在今年2月首次提出。目的是“为大规模人工智能系统的开发和部署设立严格安全标准,以确保其安全性并防止潜在重大危害。”该法案主要内容包括要求开发者进行部署前的安全评估,实施强有力的网络安全保护,具备紧急关停模型的能力,提交年度合规认证,72小时内上报安全事件等。其中特别应关注的是第22603条,其要求模型开发者对其模型的下游使用或修改承担连带法律责任。此外,该法案22604条规定,开发者需要提交用户的所有资料,包括身份、信用卡号、账号、客户标识符、交易标识符、电子邮件、电话号码。开发者每年都要提交一次资料,并对用户的行为、意图进行评估。用户的所有资料会被备份7年。
相较于欧盟的《人工智能法案》,加州AI法案显然采取了更为严格的监管态度,特别是连带法律责任的要求以及对用户隐私的深入规定。如果该法案获得通过,可能会促使部分开发者重新考虑其业务模式和技术路线,甚至可能导致一些开发者选择迁移到监管较为宽松的地区。目前,该法案的最终通过与否仍不确定,但它所提出的监管框架已经引发了广泛的讨论。从我们的视角来看,AI确实需要监管,但方式应更加灵活且合理,如果通过法案片面将所有安全责任都推到开发者身上,不会是最佳的解决方案。
4、犹他大学教授使用社会工程学防止学术AI生成内容
犹他大学教授Josh MeCrain在布置论文作业时明确禁止用AI生成,但他也不相信所有学生都会照办,于是在Word里用肉眼无法看出的一行小字要求分析蝙蝠侠。果然,最后大概有1/3的论文作业里提到了蝙蝠侠。(来源:微博-阑夕)
评论:AI生成技术的广泛应用,带来了各种各样的新问题。但目前行业内还缺乏有效的AI识别工具,很多人在面对疑似AI生产内容时束手无策。犹他大学教授Josh MeCrain的方法不是人人都能学会,归根到底技术带来的问题,还是要靠技术发展去解决。近日,有外媒爆料OpenAI掌握一种“水印”方法,据称OpenAI研发的这种“水印”技术能够可靠地检测到是否有人使用ChatGPT生成的内容。根据其内部文件,在ChatGPT创建了足够多的新文本之后,该水印机制的有效性高达99.9%。这意味着,只要文本中嵌入了这种特殊的“水印”,几乎可以确保其AI生成身份被准确无误地识别出来。这对于打击AI生成内容的滥用、维护信息真实性、保障知识产权以及规范网络空间秩序等方面具有重大意义。然而,尽管这项技术在识别AI生成内容方面展现出极高的准确性和潜力,OpenAI却并未将其公开发布。据透露,OpenAI担心该工具的广泛使用可能对其用户数量产生负面影响。不过,鉴于AI生成内容的真实性越来越受到公众关注,我们有望看到更多可靠的解决方案出现,以更好地管理和鉴别AI生成的内容。
- 相关领域
- 高科技与人工智能