CNN称人工智能为“2023年的流行词”,并在无数媒体报道中被提及。这项技术在社会中变得越来越显眼,商业领袖利用它来重组工作场所,有人选择它作为他们的浪漫伴侣,犯罪分子利用它来模糊公众对现实的感知,等等。
人工智能为以前难以解决的问题带来了惊人的科学和技术突破。在加州大学伯克利分校,研究人员开发了利用人工智能的工具,帮助一名瘫痪的女性通过数字化身说话,并为全球塑料条约谈判提供政策建议。他们正在利用人工智能加速发现能够缓解气候变化影响的材料,并开发可能彻底改变医疗保健的平台。他们还在开发评估人工智能聊天机器人是否值得信赖的方法。
“自从生成式人工智能问世以来的短短一年多时间里,它已经渗透到我们所做的许多事情中——既有好的方面,也可能有不好的方面,”伯克利计算、数据科学与社会学院院长詹妮弗·查耶斯(Jennifer Chayes)说。“人工智能可以帮助我们创造新的药物和生物医学与健康的流程,开发减缓气候变化的材料和干预措施,以及更公平分配资源的方法,以造福社会。”
“但它也可以制造深度伪造和传播虚假信息,可能进一步破坏已经不稳定的社会进程,”查耶斯说。“作为教育者和研究人员,我们有责任确保人工智能被用来造福社会,创造一个更美好的世界。”
我们询问了专家们今年他们在人工智能相关领域关注的哪些问题,以及他们预期会发生哪些变化。以下是他们与我们分享的内容。
版权诉讼及其对生成式AI的影响
生成式人工智能对版权持有人来说是一项极具破坏性的技术。《纽约时报》对OpenAI的诉讼可能是指控生成式AI系统侵犯版权的最引人注目的案件,但Getty Images、环球音乐集团以及代表视觉艺术家、书籍作者和软件开发者的多个集体诉讼,也已经对包括OpenAI、微软、Meta、Stability AI、Alphabet和Anthropic在内的生成式AI系统的主要开发者提起了版权诉讼。主要的指控是,为了训练基础模型而复制受版权保护的作品构成了版权侵权,即使这些作品是自愿发布在互联网上的。大多数诉讼还声称,生成式AI系统的输出是侵权的衍生作品。这些诉讼主要寻求金钱赔偿,但其中有些诉讼要求法院命令被告销毁那些基于受版权保护作品训练的模型。因此,除非这些系统仅在获得许可的内容或公有领域作品上进行训练,否则这些诉讼可能对生成式AI系统的存在构成生存威胁。我的研究重点是评估这些指控的合理性,以及在某些指控成立的情况下应当采取何种补救措施。
人工智能的可能性与危险
2024年将是一把双刃剑。我们将看到人工智能带来的令人惊叹的成果,也会看到它带来的实际危害。在令人惊叹的一面,我们将看到一些令人意想不到的人工智能应用,这些应用将真正让人们认识到人工智能的潜力。我们将在材料科学领域和生物领域看到更多的突破。人们会意识到,今年解决的一些问题是诺贝尔奖或其他重要奖项的有力竞争者。我们会意识到,“哇,人工智能不仅存在,而且是科学突破和其他应用的力量倍增器。”
然而,这把双刃剑的另一面是,我认为我们将首次看到人工智能带来的实际危害。我们将看到人工智能在一个高度分裂的环境中被武器化,用于选举——不仅仅是在美国,而是全球范围内。这将产生实际的后果。我们还会看到一些未经充分考虑的人工智能应用带来的危害,就像我们在自动驾驶汽车中看到的那样。第一次面对自动驾驶汽车时,所有人都意识到,“等一下,这项技术还不成熟”,结果有人因此丧命。我们将在其他领域看到类似的情况。这不仅仅关乎算法或偏见,更关乎糟糕的实施。人们将尝试在没有真正理解这些系统细微差别的情况下实施人工智能工具。这在政府系统和其他关键服务中引入新技术时经常发生。人们将难以察觉到真正受伤害的地方。我们早期已经看到,当人们开始实施人工智能保释计算器等工具时,这些工具被判定为具有根本性种族歧视倾向和其他问题。
安全人工智能的治理系统和结构
在2024年,我们将继续看到人工智能能力在视频生成、智能代理等不同领域的提升。同时,人工智能安全和人工智能安全性问题也会日益增多,例如深度伪造和语音克隆诈骗等。在2023年,许多世界领先的研究人员签署了关于人工智能风险的声明——“减轻人工智能带来的灭绝风险应与其他社会级别的风险(如流行病和核战争)一样成为全球优先事项”,而拜登总统也签署了一项行政命令,旨在推动人工智能的安全、可靠和可信的发展与使用。延续这些努力,我希望在2024年能够看到来自全球政府、行业和学术界的更加紧密的合作,制定出有效的行动计划,其中包括政策法规和标准化、国际合作,以及在构建安全可信的人工智能方面显著增加对研究和教育的支持。