一项由Tech进行的调查发现,人们对于在工作中何时可以使用AI以及AI错误的责任归属存在分歧。
随着ChatGPT、Gemini等AI工具成为许多员工日常生活中的常见工具,关于其在工作场所的应用和使用的伦理问题自然开始浮现。
Tech在2023年7月进行的一项调查显示,企业领导者们对工作场所中AI所犯错误的责任归属存在分歧。近三分之一的受访者认为,使用AI工具完成重要任务的员工应对错误或失误负全部责任,而略高比例的受访者则认为员工及其经理都应部分负责,并共同承担责任。
同一调查还显示,82%的企业领导者认为使用AI工具(如ChatGPT)来撰写对同事的回复是可以接受的。
企业领导者和决策者调查
最近,Tech对一组 86 位商业领袖和决策者进行了关于在工作场所使用 ChatGPT 等 AI 工具的伦理问题的调查。
在日常业务中使用 AI 对于许多公司来说仍然是一个相对较新的现象,因此我们认为了解决策者是否在这种背景下对什么是适当和伦理的做法有一致的看法是很有趣的。
受访者并不需要回答每一个问题才能被纳入调查,因此我们在下文中重点说明了每个问题的响应人数。
企业对 AI 错误责任的分歧
69 位企业领导者和决策者回应了我们的问题:“如果经理允许员工使用 ChatGPT 等 AI 工具来完成一项重要任务,而 AI 工具犯了一个重要错误,那么谁应该负责——AI 工具、员工,还是经理?”
近三分之一的受访者(31.9%)将责任完全归咎于使用 AI 工具完成重要任务的员工或“用户”。
许多人提到,AI 工具只是现在普通员工在工作中使用的众多工具之一,因此员工有责任确保其被适当使用。
稍高比例的受访者(33.3%)认为,责任应由使用 AI 工具的员工和负责他们的经理共同承担。
另一方面,略多于四分之一的受访者(26.1%)认为 AI 工具、员工和经理三方在某种程度上都应为这个错误承担责任。
一些受访者认为,追究 AI 工具未能履行其功能的责任很重要,而另一些人则认为无法让一个软件应用程序承担责任。
仅有 5.8% 的受访者认为经理应承担全部责任,而 2.9% 的受访者则认为员工和 AI 工具在某种程度上都部分负有责任。
82% 的企业领导者认为使用 AI 编写回复同事的消息是可以接受的
68 位企业领导者和决策者回答了我们的问题:“你认为使用 ChatGPT 等 AI 工具来编写对同事消息的回复是否符合伦理?”
绝大多数受访者(82.4%)认为,使用 AI 帮助编写对同事的回复是符合伦理的。相比之下,仅有 8.8% 的人认为这不是一种可以接受的做法。
同样有 8.8% 的受访者认为这取决于具体消息。较长的、更为个性化的消息——那些需要人情味的内容——被认为是不适合使用 ChatGPT 的场景。
在回答我们关于是否应该在回复中披露 AI 使用情况的后续问题的 52 位企业领导者中,绝大多数(80.8%)认为这样做是符合伦理的,而将近五分之一(19.2%)的人认为没有必要披露这一点。
68% 的企业领导者认为员工不应在未经许可的情况下使用 AI 工具
73 位企业领导者和决策者回答了我们的问题:“你认为员工在未经雇主许可的情况下使用 ChatGPT 等 AI 工具是否符合伦理?”
68.5% 的受访者认为,员工不应在未经雇主、经理或主管明确许可的情况下使用 ChatGPT 等 AI 工具。然而,12.3% 的受访者认为在没有明确许可的情况下使用 AI 工具是可以接受的。
剩下的 19.2% 表示,这完全取决于该员工计划做什么。这些受访者的回答取决于所使用数据的敏感性、任务的性质以及公司现有的政策。
职场中的 AI:明确的指导方针是关键
关于 AI 在工作场所使用的新伦理问题每天都在被提出。企业对 ChatGPT 和其他 AI 工具的创造性使用越多,关于如何负责任、合乎伦理地使用它们的问题就会越多。
如果你的团队成员正在使用 ChatGPT 等 AI 工具,为他们提供明确的指导方针,说明他们在何时以及如何使用这些工具,是避免因错误使用而产生负面后果的关键。
每个企业都会以稍微不同的方式处理这些问题。但与员工保持开放的对话,讨论如何使用 AI 工具能为企业带来利益。
参考资料:
https://tech.co/news/business-leaders-blame-ai-mistakes