当你向ChatGPT或其他AI助手提问时,是否发现有时它会给出看似合理但实际错误的答案?这种现象被称为"幻觉",就像AI在做白日梦一样编造信息。J.P.Morgan的研究团队决定从一个全新角度解决这个问题:既然我们无法完全阻止AI犯错,那能否通过改变提问方式来降低出错概率呢?