外媒:出自人工智能还是人类创作——中国打官司引热议 作者:山谷刚史 来源:雅虎日本 OpenAI发布了视频生成AI模型的最新版本“Sora 2”,其质量让很多人感到惊讶。其中,如果没有水印,很多视频会被误认为是拍摄真实事件的视频。 另一方面,中国为了不输给西方国家,正在独自开发大规模语言模型(LLM)和生成AI。此外,AI生成的内容必须贴上标签,以证明它是由AI生成的。其对象不仅限于视频和图像,还包括语音和文本。关于这一详细内容,可以参考过去的报道《中国必须给人工智能内容贴标签——小米的雷军也苦于人工智能诈骗》。该规定于9月1日生效,但平台运营商必须在此之前完成系统响应。 在这种情况下,7月份下达的有关生成AI的审判判决引起了关注。事情的起因是一位姓李的网友发布了一篇文章,内容是“打工赚不了多少钱,但可以打开一个新的视角”。对此,该平台的算法判断“这是人工智能写的”,封锁了帖子并关闭了一天的账号。 该用户不服处罚决定,向北京互联网法院提起诉讼,要求撤销处罚决定并删除违法记录。对此,平台方面表示:“拥有自动检查内容是否为人工智能生成的权利。这次的算法判断该帖子明显缺乏人类的情感特征”,主张自己行为的正当性。 对此,北京互联网法院作出判决:“平台违反协议,应当解除封锁和关闭账号的处分,并恢复原始数据。”法院承认,根据政府政策,平台有责任识别和管理人工智能内容,但认为标准过于主观,难以说服公众。他强调,“从内容中可见的非常明显的人类情感特征”不应成为算法判断中手动审查的唯一标准。 平台有识别和管理人工智能内容的义务,但具体的操作流程和算法决策必须是可追踪的,如果算法不能合理解释为什么判断为人工智能生成。不行。如果内容创作者难以证明自己创作的内容,那么明确解释算法依据的举证责任应该移交给平台。 也就是说,当用户难以提供自己的证据时,平台需要积极解释或提供算法依据的证据,以避免错误的定罪。这一司法判决表明,平台不应将算法黑盒子化。 法院还建议,未来在国家人工智能平台的内容治理和审查中,合理分配举证责任和提高平台算法透明度将成为核心领域。这意味着,内容作者也是责任的分配方之一,如果怀疑自己创作的内容是人工智能的,建议留下证据来解释。 即使根据此次判决平台的算法走向去黑盒子化,人制作的内容,即使没有表示AI制作的水印等标记,也能被识别为AI生成。内容和账号突然被删除的风险也很明显。中国媒体《新京报》列举了长期创作的剧本被误认为是人工智能的事例,有的平台将内容误认为是人工智能生成的,作品受到限制或从平台上删除。介绍了直面事态的创作者的困境。 随着时间的推移,各个平台的算法对人工智能的识别精度应该会不断提高并得到改善。但是,如果不改善发生冤案或不当有罪判决时的数据补救程序,创作者就无法安心创作作品。 作者:山谷刚史 来源:雅虎日本 |