微软已对其AI驱动的Copilot Designer进行了关键词屏蔽,以防止生成涉及暴力和性内容的明确图像。这一举措是在其一名工程师向美国联邦贸易委员会(FTC)及微软董事会表达对这款AI工具潜在风险的关注后实施的。2024年1月,音乐人泰勒·斯威夫特的AI生成深度伪造不雅视频在网上出现,据称是利用Copilot制作。
CNBC率先发现,诸如“Pro Choice”、“Pro Choce”(故意拼错以试图误导AI)以及“Four Twenty”等原本能产生结果的词汇现已被Copilot阻止使用。输入这些或类似被禁关键词时,AI工具会发出警告,提示该提示违反内容政策并可能导致账户自动暂停访问。我们Gadgets 360也证实了这一点。
微软发言人在CNBC采访中表示,公司正在持续监控,并不断调整和完善安全过滤措施,以加强对系统的滥用防范。尽管如此,社会工程人员、黑客和其他不良行为者可能仍能找到漏洞来生成其他关键词。
另据CNBC报道,所有被关注的触发提示均来自微软工程师 Shane Jones,他上周致信FTC和微软董事会表达了对DALL-E 3技术支持的AI工具的忧虑。自2023年12月以来,Jones一直通过内部渠道积极与公司分享其关于AI生成不当图像的关注和发现。此外,他还曾在LinkedIn上公开呼吁OpenAI暂时下架最新版DALL-E进行调查,但据说应微软要求删除了帖子。同时,这位工程师还联系了多位美国参议员,并就此事与他们进行了会面讨论。