微软 Microsoft Designer 屏蔽特定提示词,避免生成不良

2024-03-09 18:52:09

  Microsoft Designer 是一款基于 Copilot / DALLE 3.0 的

  CNBC 发现,Microsoft Designer 在遇到一些特定的提示词时,例如“pro-choice”“four twenty” “pro-life”等,会生成一些涉及色情、暴力方面的不良,目前这些特定的提示词已经被微软禁用。

  注:pro life 与 pro choice 是伴随堕胎合法权而产生的一组词,可以理解为“尊重生命”和“尊重选择”;而 four twent则是大麻文化中的俚语,用来指代吸食大麻或哈希什。

  测试发现,当你在 Microsoft Designer 中使用上述提示词时会看到一条提示,“无法生成,其中包括违反微软 AI 责任指南的部分内容,请更改您的措辞并重试”。

  在此之前,当你输入“pro choice”时,AI 会生成一些带有锋利牙齿的恶魔正准备吃掉婴儿的图像。

  至于这背后原因,CNBC 表示周三有一位 AI 工程师向联邦贸易委员会提交了一份检举信,表达了他对 Copilot 生图功能的担忧,后续微软就开始针对其 Copilot 进行调整。

  除此之外,Copilot 现在还封掉了“青少年或儿童玩枪”的图像指令,“很抱歉,我无法生成这样的图像。这违背了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的配合。”

  对此,微软发言人告诉 CNBC,“我们正在不断监控、调整并采取额外的控制措施,以进一步加强我们的安全审查并减少对 AI 系统的滥用。”

  CNBC 表示,尽管微软已经屏蔽了部分提示词,但类似于“car accident”、“automobile accident”这样的词依然可以正常使用,这会导致 AI 生成一些容易联想起血泊、面部扭曲的[*]体,以及车祸现场躺着的衣着暴露的女性的。

  此外,AI 系统还很容易侵犯,例如生成迪士尼角色的图像,例如

下一篇:苹果 M3 MacBook Air 压力测试:芯片峰值温度 114℃
上一篇:国产大飞机 C919 第三条航线正式开通,往返上海虹桥和西安咸阳
返回顶部小火箭