(文本一)
人工智能不仅能“读图”识别影像,还能“识字”读懂病历,理解患者病情并推荐临床诊断,准确度甚至超过医生,媲美经验丰富的专家……如今,这一幕极具科幻感的场景,已经迈入现实。
据悉,目前,该AI系统的功能已经十分强大。一方面,可以通过人机交互获取患者或家长口述文本,包括主诉、症状、疾病史、用药史等信息,做出粗略诊断,给出可能的疾病范围;另一方面,还可通过医生当面问诊或互联网远程问诊,获取详细病情及鉴别诊断特征,模型据此重新运算,给出具体的精确诊断。此外,如果有实验室检验或影像检查数据,AI模型还可以进一步确认其诊断结果。
以上只是一个例子,利用AI流媒体服务平台可以向用户推荐他要看的电影,发送他可能很快就会在线下单的商品,它还能帮着识别照片中的人物甚至花草……人工智能市场规模日益扩大,应用面十分广泛。
(选自《阳城晚报》,有删改)
(文本二)
科幻感十足的AI形象,开始渐渐引发人们恐惧。其中部分恐惧,可能源于机器党拥有与人差别不大的认知。另外,对AI研究的报道方式,也可能引起恐慌。譬如2017年6月,“脸书”(Facebook)的AI研究人员称有两个聊天机器人开始在对话中使用代码字。而部分新闻报道甚至描绘成,研究人员为免事态失控,匆忙终止实验。但1997年,IBM的“深蓝”打败了国际象棋世界冠军,展示了强大的计算力,其纯粹的暴力破解法就被用于机器学习,在看似具有无数种招式的游戏中轻松获胜。现在,AI不断击败人的消息,可能会给人这样一种印象:计算机在认知能力方面已堪比人类。但实际上,两者之间仍存在一条鸿沟。机器学习和自然语言专家格雷格霍兰德告诉人们,人脑可以解决AI前所未见的问题,而机器学习,只是针对特定问题而设计的。
(选自《科技日报》,有删改)
(文本三)
目前,人工智能领域基本上没有太大的进展。它能够做那些可量化的、机械重复的以及具有特定范式的工作,但难以洞察人类的情感道德和价位判断。在比较长的时间内,完全不用担心它会威胁到人类。
业内人士还指出,人工智能的算法应用场合,很多跟人们的生命和财产安全相关。人工智能模型基本上都是通过一些数据训练出来的,而数据分布本身就带有不均衡性,因为分布不均衡的数据,训练模型本身就会带来一些偏见。而且,数据在采集和使用过程中都可能造成隐私的泄露。对此,法律应建立一个问责机制,一旦出现问题应该找谁去追责。
(选自《新华日报》,有删改)