会导致有问题的结果即使使

 

 

在她的研究中审核了大型数据集她在用于训练常见人工智能模型的数据集中发现了非法种族主义和/或不道德的内容。使用这些数据反过来会将偏见嵌入人工智能模型中这往往会对边缘群体造成不成比例的伤害。即使这些数据集中包含的内容并不违法但也可能是在未经这些数据的创建者或主体明确同意的情况下获得的。人们也很少能够从这些数据集中提取数据。事实上由于数据集包含数百万甚至数十亿个数据点因此实际上不可能从其中删除内容片段。与此同时获得这些数据集中拥有数据的每个人的个性化同意将是极其困难的甚至是不可能的。此外要求同意可能会极大地限制人工智能的发展因为很难获得同意使用大型数据集中的每个元素而这些元素增加了人工智能的创新。不幸的是与人工智能输入相关的问题没有明确的解决方案。我们的小组一致认为对人工智能训练数据的一些法律监管有助于提高人工智能输入的质量和道德规范。但仅靠监管不太可能解决出现的许多问题。

 

我们还需要为使​​用数据包括公开

 

许可的数据进行人工智能培训提供指导。例如指南可能会阻止使用公开许可的内容作为人工智能输入这种使用可能用不违反许可例如面 房主数据库 部识别技术。像这样的公开讨论对于利益相关者就如何合乎道德地使用人工智能输入达成共识提高对这些问题的认识并努力改进未来的人工智能模型至关重要。小组成员和参与者共享的链接关于人工智能伦理的建议文本挖掘和机器学习的新法律格局作者的是对人工智能和开源的未来的重要讨论播客档案–深入探讨人工智能人工智能输出第二天我们在第二个小组人工智能输出和公共资源”中继续讨论人工智能。在这个小组中我们聚集了包括艺术家人工智能研究人员以及知识产权和传播学者在内的专家小组来讨论生成人工智能。该小组成员包括苏塞克斯大学知识产权法讲师一位艺术家利用人工智能技术帮助他创作原创创意的作品佐治亚理工学院交互式计算学院教授米拉·奈尔是北阿尔伯塔理工学院的版权专家。知识共享总法律顾问凯特·沃尔什主持了该小组讨论。虽然我们的第二个小组讨论了许多主题但贯穿大部分关于人工智能输出的对话的问题是人工智能产生的作品是否与人类产生的作品有某种不同。

专家组立即质疑人类创作的作品

 

和人工智能生成的内容之间的这种区别是否有意义。生成式人工智能工具的存在范围从需要最少人类交互的工具到需要最多人类交互的工具并且至少在现代人工智能系统中人类参与了人工智能内容创建的每一步。人类既开发人工智能模型又使 伯利兹 WhatsApp 号码列表 用系统来生产内容。由于目前不存在真正自主生成的作品——也就是说完全由人工智能创作的艺术完全没有任何人类干预——我们的小组成员建议也许最好将人工智能系统视为艺术家可以使用的一种艺术工具而不是全新的东西。画笔到相机再到生成人工智能人类在整个历史中一直在使用技术来创作艺术而这些技术总是对艺术和创造力的本质提出质疑。尽管如此人工智能和人类创造之间仍然存在一些重要的区别。例如人工智能系统可以以人类无法比拟的规模和速度创造新作品。人工智能在创建内容时不受人类限制的约束。人工智能不需要睡觉吃饭或做其他减慢人类艺术创作速度的事情。人工智能可以全天候生产无需分心或暂停。由于产生大量人工智能生成内容的可能性我们的小组成员讨论了人工智能生成的内容是否属于公共领域或者是否应该受到版权保护。

 

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注