微软正在实施新技术来识别人工智能创建的图像。得益于隐形系统,即使经过修改,用户也能够轻松识别图像是否由人工智能生成。
发电技术的兴起人工智能图像制造了很大的噪音,尤其是周围虚假信息和深度造假。随着以这种方式生成的内容成倍增加,能够辨别真假。为了应对这些挑战,大型科技公司正在寻求能够保证更合乎道德地使用这些工具s,同时确保用户安全并限制虚假信息的传播。
考虑到这一点,微软添加了一个新功能其 Azure OpenAI 服务,允许开发人员使用DALL-E 模型从简单的文本描述生成图像。从此平台上的所有创作都将整合隐形水印。铯谨慎的标记,肉眼无法察觉,但可以在不改变其质量的情况下识别其来源。即使在进行更改(例如裁剪或调整大小)后,它仍将保持存在且功能齐全。
微软加强对带有隐形水印的人工智能生成图像的保护
添加到生成的图像中的隐形水印达尔-E将包含重要信息让他们证明自己的起源。它们中的每一个都将包含加密签名的元数据,表明它是由AI生成的,以及其创建日期和使用的工具。这种保护机制是基于数字签名可以通过专门的工具进行验证。借助这项技术,将可以追踪其确切来源并防止任何欺诈性使用或滥用操作。
微软并没有就此止步,而是继续加大对人工智能生成内容的安全力度。 2023 年,该公司已经通过其 Azure AI 语音服务引入了合成语音水印。此外,该公司正在与 Adobe 和 BBC 等其他主要行业参与者合作,以确保这些加密签名和元数据技术兼容不同平台。这创建了保护以这种方式生成的内容的标准,并保证整个网络更好的安全性。