华盛顿(美联社)——在周四,多家领先的人工智能企业承诺将从其人工智能产品的训练数据中剔除裸体图片,并采取其他措施以遏制有害深度色情图像的扩散。
在拜登政府的调解下,Adobe、Anthropic、Cohere、微软和OpenAI等科技公司表示,他们将自愿承诺“在适当的情况下,根据模型的用途”,从人工智能训练数据集中移除裸照。
白宫的声明是一个更广泛运动的一部分,旨在打击基于图像的儿童性虐待以及未经成年人同意生成的亲密人工智能深度伪造图像。
白宫科技政策办公室的声明指出,这类图像“激增,尤其是针对女性、儿童和LGBTQI+群体,并成为迄今为止人工智能发展最快的有害用途之一”。
Common Crawl是一个不断从开放互联网上收集数据的存储库,是训练人工智能聊天机器人和图像生成器的重要来源。它更广泛地承诺以负责任的方式获取其数据集,并保护其免受基于图像的性虐待。
在周四的另一项承诺中,另一组公司——包括Bumble、Discord、Match group、meta、微软和TikTok——宣布了一套自愿原则,以防止基于图像的性虐待。这一声明与《反妇女暴力法》颁布30周年相关。
本文来自作者[admin]投稿,不代表elhjp号立场,如若转载,请注明出处:https://elhjp.cn/zheh/202507-2385.html
评论列表(4条)
我是elhjp号的签约作者“admin”!
希望本篇文章《科技公司努力通过限制数据集中的裸露内容来遏制有害的人工智能生成性图像》能对你有所帮助!
本站[elhjp号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览: 华盛顿(美联社)——在周四,多家领先的人工智能企业承诺将从其人工智能产品的训练数据中剔除裸体图片,并采取其他措施以遏制有害深度色情图像的扩散。...