科技飞速发展的名言警示小心ChatGPT或许正一本正经地编织谎言
编者按:
在短短几个月的时间里,ChatGPT迅速风靡全球,其背后的技术和工作原理是什么?它是否有可能取代记者的角色?我们应该如何看待ChatGPT的未来发展?光明网《科技新纪元》栏目专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,深入探讨了ChatGPT从人工智能角度。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员,他致力于类脑智能和计算研究领域。
“ChatGPT使用体验令人期待,但也存在不足”
光明网:您对使用ChatGPT的感受如何?它在哪些方面显得不足?
曹立宏:相较于之前的GPT3,ChatGPT确实取得了一定的进步,它能够提供更加流畅且自然的人机交互体验。对于日常问题或基础知识点,它能快速准确地回答,这是其语言生成能力的一个亮点。但当涉及到专业性更强的问题时,ChatGPT就开始出现局限性,比如无法即时更新最新信息,如提及热门电视剧《狂飙》时,就无法准确回应。这反映出AI中的“遗忘”问题,即如何让系统快速学习新内容,同时不影响已有的知识结构,是目前AI领域尚未解决的问题之一。
此外,作为一种基于文本处理的系统,ChatGPM缺乏真正意义上的“理解”,这使得其理解方式显得浅薄。人类通常通过多种感觉来认识世界,而不是仅仅依赖文字描述。如果看到一个黑色苹果,你会犹豫是否吃掉,因为你可以通过触摸来判断是否烂掉。而这样的全方位经验,我们称之为具身经验,这对于自然语言处理至关重要。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,遗忘问题,常识,一般化理解,全方位体验
“记者的职业安全性并不低”
光明网:考虑到您的专业背景,您认为记者的岗位被替代的可能性有多高?
曹立宏:我认为现在还没有太多理由担忧记者职位被直接取代。首先,对话深度理解这一环节,在这个方面人类仍然占据优势。此外,由于需要情感共鸣和灵活调整采访策略等因素,使得机器当前还难以完全模拟这些复杂的情境。在快速掌握并适应特定场景下的人际关系和情绪敏感性的能力上,也同样超出了现今AI所能达到的水平。
图片由百度文心大模型 AI 生成
关键词:记者角色替换风险评估
"_chatgpt主要是个辅助工具"
光明网:“穿着AI深度学习马甲”的评价以及关于聊天机器人的评论,您怎么看?
曹立宏:“近年来的自然语言处理进展巨大,但作为科研人员,我们对这种趋势持有一定的担忧,因为它们往往不能很好地界定自己所处范围内的问题,并因此可能导致过分乐观地将其视作科学家的代理或者思考伙伴。这就像说一个人因为拥有一个非常好的计算器,就可以忽略了自由思考一样。我认为,不要把chatgpt简单视为代表了真正的人类智慧,那是一种误解。”
另一方面,我也指出 chatgpt 不是真正意义上的AI,它只是采用了一种模仿人类思维模式(如神经网络)但实际上并没有达到模仿人类真实认知过程,因此在一些深层次复杂的事务中表现出来的是一种一本正经却又荒谬无比的情况,即虽然表面上看起来很完美却实际上缺乏有效性的情况。
图片由百度文心大模型 AI 生成
关键词:辅助工具、计算器、高效搜索引擎、核心句子效率提升
"需警惕chatgpt滥用"
光明网:“关于chatgpt未来走向,您有什么想法?”
曹立宏:“chatgpt未来发展路径至少有两条。一条是在继续深化现有的神经网络架构,比如Geoffrey Hinton他们一直在寻找更接近生物大脑的大型神经网络算法。但这仍然是一个挑战,因为目前我们的设计偏离了生物学的大脑功能结构。所以我们需要新的设计方法来改善当前存在的一些限制。
另一条路则是在尝试找到更接近人类大脑工作原理的手段,比如将概念转化为数值形式,这个过程跟我们的大脑工作方式不同,所以我们还需要更多类似于人的学习算法来提高chatgpt功能。未来,如果我们能够找到这样一种算法,那么chatgPt将变得更加接近人们期望中的那种个人化交流工具。不过,我们必须意识到如果没有足够谨慎地审视这些技术潜力的极限,它们可能会被滥用,从而带来严重后果。”
图片由百度文心大模型 AI 生成
关键词:Deep Learning, 人工神经元模型, 神经网络, 反向传播学习算法, 大腦記憶量化