游客发表
本报讯 《自然-人类行为》5月20日发表的情商一篇论文显示,在测试追踪他人心理状态能力,个更高也称心智理论的情商任务中,两类大语言模型(LLM)在特定情况下的个更高表现与人类相似,甚至更好。情商一潭死水
心智理论对人类社交互动十分重要,个更高独辟蹊径是情商人类沟通交流和产生共鸣的关键。之前的个更高研究表明,像LLM这类人工智能可以解决复杂的情商认知任务,如多选决策。个更高不过,情商研究人员一直不清楚LLM在心智理论任务——被认为是个更高人类独有的能力任务中的表现是否也能比肩人类。
在这项新研究中,情商历历在耳德国汉堡-埃彭多夫大学医学中心的个更高James Strachan和同事选择了能测试心理理论不同方面的任务,包括发现错误想法、情商理解间接言语以及识别失礼行为。
研究人员随后比较了1907人与两个热门LLM家族,鬼话连篇即由美国OpenAI公司开发的GPT模型和由美国Meta公司开发的LLaMA2模型完成任务的能力。
他们发现,GPT模型在识别间接要求、错误想法和误导表现等方面能达到、高山流水有时甚至超越人类平均水平,而LLaMA2的表现则逊于人类水平。在识别失礼行为方面,LLaMA2强于人类,空中楼阁GPT表现不佳。
Strachan和同事指出,LLaMA2的成功被证明是因为回答的偏见程度较低而不是因为真的对失礼行为敏感,而GPT看起来的削足适履失利其实是因为对结论的保守态度而不是推理错误。
研究人员提醒说,LLM在心智理论任务上的表现堪比人类不等于它们具有和人类一样的能力,也不意味着它们能掌握心智理论。但他们也指出,心慌意乱这些结果是未来研究的重要基础,并建议进一步研究LLM在心理推断上的表现如何影响个体在人机交互中的认知。(赵熙熙)
相关论文信息:
https://doi.org/10.1038/s41562-024-01882-z
随机阅读
热门排行
友情链接