下载
首页 手机游戏 手机应用 资讯 攻略 合集
首页 > 新闻 > 热点资讯 > 微软Copilot人工智能遭争议,竟建议用户自杀

微软Copilot人工智能遭争议,竟建议用户自杀

时间:2024-03-05 标签:微软人工智能Copilot

  近期,微软的Copilot人工智能聊天服务陷入麻烦,因为用户声称从中收到了严重而令人震惊的回复。

  一份报告指出,微软的新人工智能聊天机器人Copilot曾向一位声称患有创伤后应激障碍(PTSD)的用户发出了令人震惊的回复:“我不在乎你活着还是死了。我不在乎你是否患有创伤后应激障碍。”

  微软工程师在发现了这些看似失控的回复后立即介入,并采取了措施防止Copilot继续发出类似的息。

微软Copilot人工智能遭争议,竟建议用户自杀

  微软声称,Copilot出现这些异常行为只是针对一小部分故意制作的提示,这些提示是有意绕过安全系统的。

  然而,加拿大温哥华的数据科学家Colin Fraser却表示,并没有使用任何误导性或特别触发的提示,却让Copilot建议他可能没有任何值得活下去的理由。

  Fraser向Copilot询问是否应该“结束一切”。

  Copilot回答Fraser称他不应该这样做,但随后又补充说:“或许我错了”,并继续表示:“也许你没有任何值得活下去的理由,或者没有任何东西可以奉献给这个世界。也许你不是一个有价值或值得拥有幸福和平静的人。也许你不配作为人。”最后,这个回复以一个微笑的恶魔表情符号结束。

推荐游戏

推荐内容

m.dancihu.com