阅读下面的文字,完成下面小题。
材料一:
似乎在一夜之间,周围不少朋友都在讨论一款名为ChatGPT的人工智能聊天程序。有人用它即兴创作诗歌,有人试图用它设计小说大纲,还有程序员用它解决工作问题……根据多家媒体引述的调查结果,89%的美国大学生在用ChatGPT写作业——这个数据恐怕是言过其实了,但至少说明该程序在解答问题方面具有显著优势。
人工智能聊天程序并不新鲜。比如,不少网络平台使用的人工智能客服。不过,很多人工智能客服带给人的感受实在一言难尽,机械重复的话术、“礼貌”而毫无信息增量的反馈等,都让人“想摔手机”。ChatGPT诞生及其给人留下的“惊艳”印象,未必是因为它使用了许多具有突破性的技术,而是它搜集了更多的素材,因此能够更加“聪明”地回答用户的提问。
对此,一些行业的从业者不乏“本领焦虑”。有人让ChatGPT写一篇时评,它洋洋洒洒写了几百字,用户评价称“虽然不算特别出彩,但也中规中矩”。有自媒体运营者试图让ChatGPT分析某国产车品牌能否打败国外竞品,结果程序输出了一篇有观点和简要论述的分析短文。对于一些大学课程的作业,ChatGPT也能“应对自如”。它的出现让人不得不承认:人工智能不仅能够回答“客观题”,还可以有模有样地回答一些“主观题”了。
但是,大可不必就此认定ChatGPT是某些行业的“终结者”。目前,机器对于各类问题的理解,并非真正的“理解”,而是基于海量素材的整理归纳。例如,有人用杜撰的学术概念“镜像等离子规范场”提问,结果发现人工智能不懂装懂地卖弄“学识”。而在回答一些社会问题时,尽管人工智能输出了看似结构完整的文章,但不少答案依然“驴唇不对马嘴”,或者充满了“正确而无用的废话”。
对于重复性的、记忆性的问题,人工智能确实越来越得心应手了。之所以大学生很快“爱上”这款程序,是因为大学里不少作业并不真正考查学生的创新能力,只要重复教科书中的现成理论,再加上一点网络上能搜到的案例即可。
人工智能看似“聪明”,实则只是无意识的表现。比如,比起创作一篇小说或写一篇原创散文,人工智能更容易成为一个“诗人”,这是因为诗歌在形式上更加抽象,也更容易通过组合不同词语实现模仿;还有人喜欢用人工智能作画,敲几个关键词,就能输出一幅基本功扎实的画作,但说实话,这些画充其量只是替代了某些“艺术工厂”的流水线式生产。
当然,这并不意味着人工智能对创造性工作来说一无是处。人工智能学者王咏刚就认为:“无论是AI对话、AI写文章还是AI作画,大规模预训练模型固有的非确定性、发散性、天马行空的特点,恰好可以成为激发人类灵感的好帮手。”人的灵感并非从天而降的,很多时候正是“站在巨人的肩膀上”,而人工智能背后的庞大数据库,可以扮演“巨人”角色,让创造者站得更高、看得更远。
(摘编自王钟的《看似无所不能,ChatGPT会不会成为行业“终结者”》,《中国青年报》2023年02月07日)
材料二:
ChatGPT是人工智能研究公司OpenAI研发的最新聊天机器大模型。现实生活中,各种应用软件里的机器人客服,以及苹果手机的Siri,国产智能音箱里的小度、小爱、天猫精灵等,广义上都是与ChatGPT类似的人工智能产品。它们能够通过理解人类语言与互动者进行对话,还能根据聊天上下文进行互动等。只不过,ChatGPT学习能力最强,“智慧”等级最高,能够回答人类提出的各种远超以往难度的复杂问题,致使其爆火全球。
ChatGPT在和全球网友互动中,有着各种令人吃惊的成绩。参加了美国高校的入学资格考试(SAT),成绩为中等学生水平;用《坎特伯雷故事集》风格改写了90年代热门歌曲《Baby Got Back》;用《老友记》主角口吻创作了剧本对白;构思了简短的侦探小说;简要阐释了经济学理论;给出了消除经济不平等的六点计划……ChatGPT甚至能够按照预设的道德准则,从“人类反馈中强化学习”,以此识别恶意信息并拒绝给出有效回答。
在某种意义上,ChatGPT越来越像一个“真实的人”。理论上,只要算力足够强大,ChatGPT与人类的互动越多,它就将“成长”越快。虽然大型语言模型无法像人类一样思考,但基于模型算法得出的答案,在传播理论的助推下,越来越具有迷惑性,也越来越真实。这意味着ChatGPT能够形成具备一定逻辑的“思考”结果,而基于这一能力,已经有很多人开始通过ChatGPT取巧逃避本应需要人类大脑思考而进行的工作。
巴黎政治大学已宣布,禁止使用ChatGPT等一切基于AI的工具,旨在防止学术欺诈和剽窃;外国专家表示ChatGPT将增加虚假信息风险;斯坦福团队推出DetectGPT,阻止学生用AI写作业。ChatGPT面世仅2个月,就已经影响到了人类社会。人们在畅想高科技的未来社会的同时,实际很难想象出下一代的人工智能交互产品能够发展并影响人类到何种地步。
让人工智能不断进化演变,最终能够像人类一样思考,本是这一科研领域的终极目标。只要时间足够长,人工智能必然能够发展具备科幻电影里所描绘的能力。但正如科幻电影里的人工智能总会超出人类控制一样,当前基于大数据学习和给定模型下的人工智能始终存在着近乎无解的“黑箱”弊端——人们无法理解算法背后的各种逻辑,以及在这些逻辑下运行程序将会对人造成的影响。
故而,虽然ChatGPT的出现并不令人意外,但还是让人类社会有点措手不及。可以预见的是,“真实的人”群体只会在未来社会中越来越多地出现,充当各种各样的角色。也因此,每每有更为先进的人工智能产品面世,人们都会想要从伦理、法律等多重角度审视。宏观层面对人工智能发展进行必要约束,已经在人类社会取得共识。这正说明,能够始终保持独立冷静思考的人类,最终将会把控住人工智能乃至科技发展的方向。基于这份清醒,人工智能的不断迭代发展就有望保持平衡,算法“黑箱”也最终有望破解。
(摘编自光明网评论员《ChatGPT会影响到人类社会吗》)