2024年1月30日
随著泰勒·斯威夫特的 AI 生成色情图片在 X 平台上疯传,我们不禁思考:这对 AI 的未来意味著什么?
近日,AI生成的席卷了 X(前 Twitter),揭示了 AI 能力的阴暗面。这些图片据信是使用
Microsoft Designer 创建的,吸引了广泛的关注,并突显了 AI 生成假色情的日益严峻挑战。
随著这些图片快速在平台上扩散,事件不仅引发了粉丝和隐私维护者的愤慨,还提出了有关 AI 在媒体创作中的伦理使用的关键问题。
Avast 威胁情报总监米哈伊·萨拉特(Michal Salát)在这场讨论中带来了丰富的知识和专业见解。他对科技、安全和伦理的交集有著敏锐的观察,提供了对
AI 生成内容影响的微妙视角。
在接下来的部分中,我们深入了解了他的见解,探讨了图片操控的历史平行性、AI 能力带来的伦理困境,以及在我们日益以 AI驱动的世界中对数字信任和安全的更广泛影响。
假色情并不是新问题
萨拉特将当前 AI 生成逼真图片的能力与过去的 Photoshop 使用作了比较。正如 Photoshop 多年前革新了图片操控,现在 AI使得创建真实图片变得更加容易。然而,操纵图片的概念并不新鲜;AI 只是这段持续故事中的最新工具。
“在某种程度上,这只是一种不同的照片编辑软体,”他解释说,强调操纵图片的概念已经存在十多年了。关键的不同在于 AI技术带来的便利性和可及性。这一步骤使得社会在适应和规范这些新工具时面临重要问题,因为这些工具让创建逼真图片变得比以往任何时候都更容易。
AI 与露骨内容的伦理困境
当前最迫切的担忧之一是使用 AI生成露骨图片的伦理影响,特别是对特定个体而无他们的同意。虽然生成一般裸露图片可能不会引起太多伦理争议,但真正的问题在于轻易地创造出可识别人物的露骨图片。
“对我来说,AI生成色情内容本身或许没有任何固有的错误或伦理问题,”萨拉特表示。“但伦理问题,至少对我来说,是你可以相对轻易地生成一个有已知或特定面孔的图片。”
这种能力不仅限于泰勒·斯威夫特这样的名人,几乎可以扩及到任何人,这强调了制定伦理准则和立法的必要性:所谓的“报复色情”(或未经同意分享裸照)在,而 AI生成的深伪色情目前
AI 公司如何防止深伪色情的生成?
也许是因为接触生成 AI 是一个相对较新的现象,对于在未经主体同意下创建露骨内容的保护措施仍然较少。然而,萨拉特认为,对于 AI公司来说,实施这些措施并不是非常困难:例如,不允许创建特定人物的图片或使用用户提交的图片作为素材将为绝大多数人提供足够的障碍。
“当然,有些人能够突破这些限制,强迫模型做它本不应该做的事情,”萨拉特说。“我认为,从我看来,现在几乎不可能完全避免这种情况——你只能让它变得更难。我想表达的重点是,提供这些服务的公司应该更努力去避免这种情况的发生。”
另有可能有人创建自己的色情生成模型而不受任何限制。不过,萨拉特指出,即使这是可能的,实现这一目标也需要_大量_的技术知识和_大量_的计算能力。
“能够自行创建 AI 生成裸照的人并不多,”萨拉特说。“因此,这更像是使用 Photoshop,你需要拥有一定的技能才能做到。”
萨拉特将当前 AI 发展状态与安全行业的发展进行了比较。他观察到,我们正见证著安全行业“从头开始进行 AI”的过程。这一比较突显了将 AI发展视为一个持续进程的重要性,在这一过程中,识别和修复漏洞是成熟技术的关键。
在 X 平台上出现的泰勒·斯威夫特的 AI 生成图片强调了负责任使用 AI 的重要性。随著 AI持续进步,如何在技术能力与伦理考量和安全措施之间达成平衡将至关重要。通过向像米哈伊·萨拉特这样的专家学习,并反思过去的挑战,我们可以以更有信息和谨慎的方式来应对这一复杂的领域。