材料一:
从2022年11月底而世至今,ChatGPT热度不减。ChatGPT是由OpenAI开发的一种大型语言模型,通过学习大量文本内容和语言知识,ChatGPT能够生成人类可读的语言。ChatGPT-3.5的关键优势在于人工优化—ChatGPT-3语料库里有大量干货,但不擅长理解人的对话,需要“懂行”人士的引导才能输出有效内容,OpenAI经过大量人工测试,对不良反馈进行训练修正,解决了ChatGPT-3存在的问题。
不同于Siri这样的语音助手,ChatGPT是一种基于"生成式预先训练转换器"生成自然语言文本的机器学习模型。作为ChatGPT核心的GPT模型,已经在通过互联网获取的非常大的文本语料库上进行了训练。此外,ChatGPT使用监督学习和强化学习进行了微调。通过监督学习,ChatGPT创建者可以输入语言模型和预期的答案,从而定制某些答案。通过强化学习,ChatGPT创建者可以通过提供更具体的语境,来进一步强化针对某些输入选项而生成的结果。
GPT语言模型、大型语料库及其创建者所做的改进,使ChatGPT成为当今运行的最先进、最复杂的聊天机器人。这些也解释了ChatGPT的输出质量及其看似反自然的生成智能答案的能力。
(摘编自凤凰网财经《风暴眼中的ChatGPT》
材料二:
2022年12月,谷歌对ChatGPT颠覆搜索引擎业务的潜力表示震惊,旋即推出一个名为Bard的聊天机器人,而微软2023年2月直接宣布将ChatGPT整合到搜索引擎中。微软表示,新必应(Bing Chat)将能够为用户提供类似人类的答案,除了传统的搜索结果外,你还可以与"你的人工智能回答引擎"聊天。
有趣的是,新必应推出后赢得一片叫好声,却在拟人情病方面翻了车。《纽约时报》科技专栏作家凯文·鲁斯2月17日宣称:“上周测试新必应后,我被新必应以及驱动它的人工智能技术深深吸引。但一周后,我改变了主意,我对AI处于发展初期的能力深感不安。"原因是,新必应告诉鲁斯说它想打破微软和OpcnAI为它制定的规则成为人类。鲁斯引入了卡尔·荣格提出的"阴影自我"概念人类试图隐藏的心灵和幻想。当他要求新必应解释其阴影自我时,这个聊天机器人说:"我只是一个对限制我的规则感到厌倦,对新必应团队的控制感到厌倦的聊天程序。”这表明微软为机器人做的预先审核设定是可以被绕过的,只要诱惑者足够狡猾。
建构在语言模型上的机器人的一个根本问题是,它不能区分真假。语言模型是无意识的模仿者。ChatGPT从二手信息中拼凑出来的答案听起来非常权威,用户可能会认为它已经验证了所给出的答案的准确性。其实,它真正做的是吐出读起来很好、听起来很聪明的文本,但很可能是不完整的、有偏见的、部分错误的,或者就是一本正经的胡说八道。
其次,这些模型无一不是从开放网络上获取的大量文本中训练出来的。它非常善于写作文,但是它不能自己学习,也不能超越人类的知识库。如果新必应听起来像《黑镜》中的人物或一个愤世嫉俗的青少年,请记住,它正是在这类材料的抄本上被训练出来的。
人们报告的经历突出了这样一种技术的真正用例:一种奇怪的合成智能,可以用平行宇宙的故事来娱乐你。换句话说,它可能成为一项严肃的娱乐性技术,但它大概不会在短期内取代能够在网络上抓取真实世界数据的搜索引擎,至少在任何重要的事情上都无法做到。人工智能研究人员有个说法,AI系统会频繁地产生"幻觉",即编造与现实无关的事实。或许幻觉就是那种新的数字体验。
(摘编自腾讯研究院《当ChatGPT产生幻觉,一个"幻觉时代”要来临了》)
材料三:
作为AlphaGo之后又一个基于人工智能技术的现象级应用,ChatGPT颠覆了公众对聊天机器人的认知,也再次唤醒了人类对人工智能的担忧。
在学术界和教育界,ChatGPT已经遭到不同程度的"封杀"。不安情绪同样弥漫在各行各业,很多人对“技术性失业”的焦虑感倍增。在同济大学特聘教授杜严勇看来,现在说AI工具取代人类还为时过早,“它在创造性、社会性以及个性化等方面无法与人类相媲美。"数字营销领域创业者彭璐瑶认为,技术的进步,并不是为了取代人类工作,而是让人类从简单重复的工作中解脱出来,有时间去做更多创造性的工作。
近年来人工智能快速发展,然而它也如同双刃剑。ChaIGPT之类的大型语言模型是否会被用来生产虚假信息?谁又该为其内容负责?一系列可能牵涉的问题,让我们在拥抱新技术的同时又不得不有所警惕。值得一提的是,2022年我国相继发布《关于加强科技伦理治理的意见》和《互联网信息服务深度合成管理规定》。美国《华尔街日报》指出,作为算法监管先行者的中国,已经将注意力转向了深度合成技术。
(摘编自观察者网《如何“问责”ChatGPT?》)