澳大利亚国立大学的研究员发现,人们无法分辨AI生成人脸和真实人脸的区别 (GAN 模型),而且犯错误最多的人是最自信的。甚至AI生成的白人面孔比真实人脸更常被判断为真人——他们称之为AI超现实主义现象。
最近的证据表明,人工智能生成的面孔现在与人类面孔无法区分。然而,算法在白人面孔上的训练不成比例,因此白人人工智能面孔可能显得特别真实。在实验 1(N = 124 名成年人)中,除了对之前发布的数据进行重新分析之外,我们还发现,白人 AI 面孔比真实的人脸更容易被判断为人类,这种现象我们称之为 AI 超现实主义。矛盾的是,在这项任务中犯错误最多的人却是最有信心的(邓宁-克鲁格效应)。在实验 2(N = 610 名成年人)中,我们使用面部空间理论和参与者定性报告来识别区分 AI 与人脸的关键面部属性,但被参与者误解,导致 AI 超现实主义。然而,这些属性允许使用机器学习实现高精度。这些发现说明了心理学理论如何帮助理解人工智能输出,并为消除人工智能算法偏差提供方向,从而促进人工智能的道德使用。
人工智能(AI)革命的到来标志着前所未有的社会转变(Xie,2023)。这一转变中最突出的是逼真的类人人工智能面孔的产生,同时公众也担心人工智能可能会扭曲对真相的看法(Devlin,2023)。人工智能生成的面孔现已广泛使用(例如,this-person-does-not-exist.com),并被用于亲社会和邪恶目的,从寻找失踪儿童(Chandaliya & Nain,2022)到通过以下方式传播政治错误信息虚假社交媒体帐户(例如,Hatmaker,2020)。现在,人工智能面孔是如此逼真,以至于人们常常无法察觉他们不是人类(例如,Nightingale & Farid,2022)。然而,由于这项技术发展如此之快(Hao,2021),因此对这种能力的实证检验很少。在这里,我们认为人工智能面孔不仅与人类面孔无法区分,而且事实上,它们可能被认为比真正的人类面孔更“人性化”。我们将这种引人注目且违反直觉的现象称为超现实主义。目前的研究旨在测试和解释人工智能超现实主义,调查人们是否能够洞察人工智能检测错误,并发现可用于揭露人工智能冒名顶替者的视觉属性。
来源:https://doi.org/10.1177/09567976231207095