Anthropic因下载盗版书训练模型向作者赔偿15亿美元 平均每本书约3,000美元
人工智能开发商 Anthropic 日前已经同意支付 15 亿美元以和解作者和出版商对其提起的法律诉讼,该诉讼涉及 Anthropic 使用数百万本受保护的书籍来训练 Claude 模型。
具体来说该公司通过免费的盗版的书籍共享网站下载内容,然后在未经授权的情况下使用这些书籍内容训练模型,值得注意的是 Anthropic 高管明知正在下载盗版作品但仍然允许员工这么做。
作为和解协议,Anthropic 决定向所有受影响的书籍作者和出版商合计提供 15 亿美元的赔偿金,这也是美国版权法历史上金额最高的赔偿金,平均每本书籍的赔偿金约为 3,000 美元 (注:只是平均,实际远没有这么多,因为出版商还要拿走相当一部分赔偿)。
值得注意的是法院曾认定 Anthropic 使用数据训练模型属于合理使用,该公司至今也认为使用这些数据训练模型都是合理的使用,但提供赔偿金可以解决原告的剩余索赔。
这 15 亿美元赔偿金将分成四期支付,第一期在法院初步批准和解协议的 5 天后支付 3 亿美元,第二期在法院最终批准后的 5 天内支付 3 亿美元,第三期在初步和解协议批准后的 12 个月内支付 4.5 亿美元 (包含利息),第四期将在初步和解协议批准后的 1 年后支付 4.5 亿美元。
目前因为版权问题等待诉讼的还有很多,例如 Anthropic 被 Reddit 指控未经授权抓取该论坛的帖子进行模型训练,Anthropic 并未像谷歌和 OpenAI 那样与 Reddit 达成内容授权协议。
最后和解金只是解决 Anthropic 公司与作者和出版商的版权争议,Anthropic 高管在明知下载盗版材料的情况下允许员工下载将单独进行审理,法院计划在 2025 年 12 月针对该案件进行审理。
-
我国科研人员研发出类脑脉冲大模型
记者今天(9月8日)从中国科学院自动化研究所获悉,近日,该研究所李国齐、徐波团队与相关单位合作,成功研发出类脑脉冲大模型“瞬悉1.0”(SpikingBrain-1.0)。该模型基于团队原创的“内生复
-
OpenAI新论文揭示AI模型出现幻觉的原因:并非神秘故障而是模型训练的奖励机制问题
目前人工智能模型普遍存在幻觉问题,所谓幻觉就是模型偶尔会自信满满地输出错误信息,此前曾有报道称连研究人员都搞不清幻觉的根源,因为模型在运行中属于黑盒模式。不过 OpenAI 研究团队最新发布的论文已经
-
谷歌搜索称AI概览不会导致网站流量下降 但前提是用户提出的问题更多
目前已经有多个 SEO 网站和站长分享数据表明谷歌搜索在推出 AI 概览后导致网站流量下降,原因在于谷歌搜索 AI 爬虫会自动检索网站内容并生成回答,因此用户并不需要点击网站就可以知道答案。按照这种情
关注公众号:拾黑(shiheibook)了解更多
友情链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
安全、绿色软件下载就上极速下载站:https://www.yaorank.com/

随时掌握互联网精彩
- 王楚钦球拍是否被动手脚要查清
- certimate开源的SSL证书管理工具!自动续期即将到期证书!
- 巫师物语ios版 v1.2.3最新版本2022下载地址
- 王鹤棣泰国录制去了20多个站姐
- 集能教育 v1.0.7最新版本2022下载地址
- 征程手游 v2.3.0最新版本2022下载地址
- SciTE 2.2.1.0最新版本2022下载地址
- 弱冠之年是多少岁
- 众想外卖用户端app v1.0最新版本2022下载地址
- 天道问情(手游电脑版) 11.0.16777.224最新版本2022下载地址
- 多乐铃声 v3.0.0最新版本2022下载地址
- 《英雄联盟》msi2022分组是什么?msi2022分组与赛程一览