AI经过人类,使聊天更加动人
6月30日在自然界中发表的一项研究指出,除非人类的同理心是错误的,否则人类倾向于拒绝AI(AI)对话机器人的情感支持。 AI的通用对话机器人,尤其是使用大型语言模型(LLM)的通用对话机器人,因为他们面对公众,他们变得越来越受欢迎。您可以与用户互动并提供情感支持。先前的调查表明,LLM促进的工具可以确定用户的情绪状态,他们的反应也被视为同理心和同理心。但是,尚不清楚对话机器人的支持是否与人类支持相同。在这项研究中,以色列希伯来大学的阿纳特·佩里(Anat Perry)和他的同事发现,与人类思想相比,AI产生的支持被认为是缺乏同理心。研究人员进行了9项研究,并提出了6,282个受试者,并由AI产生的答案,其中一些人由人类和一些人撰写written by IA dialog robots.佩里(Perry)和合作社(Co -Wotors)描述了受试者收到的答案,并观察到他们对他们认为是人类的答案具有高度的资格,虽然是同理心。受试者渴望看到他们认为是人类而不是AI的直接答案的答案。作者还发现,受试者认为人类的反应引起了更多积极的情绪,例如舒适,感知,幸福,理解和负面情绪,例如焦虑,愤怒,痛苦和问题,这些答案标记为AI产生的答案。当受试者认为人类怀孕时使用了人工智能援助时,他们都获得了较低的同理心分数,积极的共鸣,令人兴奋的积极和支持。这项研究表明,AI的对话机器人提供的支持可能存在局限性。人们可以更欣赏人类的反应,尤其是当他们期望同情和情感支持时。但是,因为研究公司Mmunication是简短的,在将来长期情感支持沟通中使用和接受AI工具需要更多的研究。相关文档中的信息:https://doi.org/10.1038/S41562-025-02247-W
上一篇:什么是割草的最有趣的游戏?精选的有趣的割草
下一篇:没有了
下一篇:没有了