微软学术合作来源林亦霖校对王菁 编辑

中科大 × MSRA | 周明博士讲座实录:自然语言处理让生活更美好

中国科学技术大学×微软亚洲研究院系列讲座开讲,MSRA 副院长周明博士以《沟通无界——自然语言处理让生活更美好》为主题,介绍了自然语言处理(NLP)尤其是神经网络 NLP 的进展,探讨了未来的技术发展。他还从企业角度讲述人才培养的体会,帮助同学们寻找未来个人发展方向,增强自身软实力、硬实力,为科研、职业发展打下坚实基础。

主讲人介绍
周明博士,微软亚洲研究院副院长
国际计算语言学会(ACL)前任会长,中国计算机学会副理事长、中国中文信息学会常务理事、首都劳动奖章获得者。他长期从事自然语言处理研究,并对 NLP 在中国和世界的发展做出了重要贡献。

沟通无界——自然语言处理让生活更美好

话题 1:介绍自然语言处理的研究 
  • 为什么这几年人工智能取得了突飞猛进?

我认为有如下三个方面来推动。

第一个就是数据,我们有了前所未有的大数据。利用大数据,基于机器学习就可以获得数据的规律或者抽取重要的知识,来指导系统进行智能操作。

第二个就是深度学习为代表的算法。有了深度学习的算法和工具,使得编制人工智能的程序变得容易。

第三个就是计算能力。现在云计算或者 GPU 集群训练一个大的模型不在话下,以前几个月训不出来的模型,现在几天或者几个小时就可以训练出来。

这三个要素,推动了人工智能在语音、图像、自然语言理解等各个方面取得新的进展。
  • 神经网络自然语言处理的关键技术


神经网络自然语言处理是当下的主流。这个图展示了神经网络自然语言处理过去 5 年左右发展的一些脉络,以及对机器翻译、阅读理解等研究的推动。

神经网络自然语言处理的关键技术,我认为有5个最重要的。


第一个是 word embedding词嵌入,也就是词的一种语义表达,用多维向量代表词的语义。

第二个是 sentence embedding,句子嵌入,即一个句子的语义表达。

第三个是 encoder decoder,把一个字符串转换成另外一个字符串,经过编码器(encoder),然后再通过一个解码器(decoder)来实现。中间发展了一个技术叫注意力模型(Encoder decoder with attention),来强化编码和解码的水平。

第四个技术是 Transformer,引入了自注意模型来提高循环神经网络的编码和解码能力。

最后一个技术是预训练模型。这五个技术是目前神经网络自然语言处理最核心的技术。

如何获得词的语义表示呢?我介绍一个叫 Word2vec 的方法。

词的含义需要联系上下文决定。我们想把词表达出来,实际上是想做到同义词、近义词在语义空间中相近。我们表达一个词,是通过它周围的词来代表的。有一句话叫“观其伴知其意”。比如 bank 这个词,很难具体说它是什么意思,但是如果知道它经常跟什么样的词在一起连接、关系多强,那也大概猜出这个词的意思了。

Word2vec 是通过一个大规模的语料库来计算、训练预测能力。比如,可以用一个词的左边两个词和右边两个词,通过一个神经网络预测中间这个词。一开始肯定预测不准,网络初始化后,经过多个例子训练,假设网络稳定了,就能有一个比较精准的预测结果。这样就得到了每个词的语义表示。同样,也可以通过当前词预测左右两个词或者更多的词,根据预测错误调整网络权重逐步得到较好的预测。

下面简单介绍“预训练模型”。上述的 word embedding 是静态的。比如 bank 这个词,无论什么上下文,它都是同一个 word embedding。但实际上 bank 在不同的上下文有不同的意思。为了体现动态信息,引入了一个预训练的自然语言模型,体现每一个词在不同上下文的意思。一般来讲,现在常用的是 Masked LM,即把某一个词盖住,根据上下文通过一个网络来猜这个词,猜得不准则再调整网络。也可以加入一些别的任务,比如预测某一句话是不是当前句的下一句。基于这种信息可以训练一个网络,对输入的句子得到上下文关联的词的向量表示。基于这种预训练模型,对自然语言的上下文和单句都可以很好地建模。

自然语言处理,能做什么?这里举一些例子。可以做语义分析。通过一句话,我们来分析出它的语义表达。如果是上下文有关的话,要把上文得到的结果存下来,帮助下文进行语义分析

我们也可以从一个文本中抽取重要的信息,抽出时间、地点、人物等等得到结构化的信息表示。可以用来知识抽取、搜索,还可以做自动文摘和自动问答等等。
我们也可以对图像进行注解。理解一个特定图像的内容,给出自然语言的描述。

我们还可以做很好的机器翻译、手语翻译、对联、写诗等等。
话题 2:探讨未来的技术发展趋势

现在自然语言存在哪些问题?

首先它缺乏常识和推理。

有的时候多轮对话,前后轮不一致,因为机器人没有把前轮得到的信息很好地保存下来并在对话的时候巧妙激活,从而出现时间上不一致,空间上不一致,还有逻辑不一致等各种现象。

我们现在利用的是大规模的计算资源来做训练,特别耗资源,大家都抢 GPU。为了在计算能力上占据领导地位,很多大公司都去开发新的芯片、大规模的 GPU 集群支持训练过程。这成为一种无休止的计算资源的军备竞赛。

数据本身也存在问题。数据标注的时候,由于标注员或者来源的问题,使得数据的标注有一些偏差造成训练获得模型也有很多偏差。数据本身的偏差如何消除?如何消除歧视?这是目前没有很好解决的问题。

还有隐私问题。用户的数据,我们不能拿来做训练的话,也没办法实现个性化服务。可是拿来训练的话,可能侵犯用户的隐私。如何做隐私保护下的机器学习?比如现在的联邦学习就是一个非常重要的研究方向。

未来的技术发展,我们想做什么?

我们想做可解释、有知识、有道德,经济的不断学习的 NLP。比如,对于资源丰富的任务,要做上下文建模、数据纠偏,多任务学习,人工知识的引入;对缺少数据资源的任务,要研究迁移学习把其他领域或者广义的知识引入到具体的领域中,或者引入人类知识,使模型能够冷启动,在使用过程中再逐渐提高自己的能力。

未来的研究重点包括以下 10 个方面。

话题 3:从企业角度探讨人才培养的体会

现在,我们高校毕业生人数迅速增长,但是我们发现有很多同学到了企业之后,无论是专业技能还是与人相处的能力,都跟企业的要求有很大的距离。当然,这也是正常的,每个人都有一个再学习和再调整的过程。但是,如果在大学阶段就在某些方面有意识地调整自己,将来到社会上可以很快地适应。我们现在的人才培养机制培养出很多工程师和一般水平的人才,但是领军人才相对比较少。学校如何增强一些卓越人才的培养,强化这样的人才必备的素质?我们组过去培养了 500 名同学,还有二十几名博士和二十几名博士后,也积攒了一些经验,在这里跟大家分享一下。

我认为优秀人才的培养需要注重三个方面的素质。

第 1 个是人生哲学方面,对人的一生的一个要求和高度。要求越高,成长的空间越大,就可能有更好的成就。第 2 个是硬实力,数学、编程这种专业技巧。第 3 个是软实力,EQ、执行能力、计划能力、乐观态度。
分别给大家阐述一下我的观点。

首先,人生哲学。除了人的品德道德之外,有三个方面的素质非常重要。

第一是追求创新。创新就是提出异于常人、异于常规的一些思路见解,为满足社会需求进行改进,创造新的理论方法、技术模式、产品,提高生产率并造福人类。比如乔布斯,大家都知道乔布斯一生不停地创新。他有文理兼备的素质,很多人认为他是理工男,但实际上乔布斯辍学之前上的是里德学院,是个典型的自由派文科学院。乔布斯爱学的选修课是书法和舞蹈,把书法、舞蹈学到的一些美学观点,引入到苹果的电脑设计之中。他也强调一定要做产品上的创新,创新决定了你是领袖还是跟随者,你要跟最优秀的人一起工作。他大胆推动产品创新,把苹果从下滑中挽救了回来,成为市值最高的公司之一。所以我们同学要一开始就培养创新的能力。

第二是成长型的思维。人的思维有两个,固定型、成长型。人人都有这两个思维。固定型思维认为,人的特质和能力先天固定,后天无法改变,这种思维导致大家按部就班、随意而安、害怕失败,只愿意做自己擅长的事情。成长型思维认为任何技能、能力都可以通过不断地学习、发展,没有一个先天的框架说我数学不好,所以我就不搞数学,我英语不好,我永远不学英语。不是,而是要逆袭,挑战自己,强化自己的相关的一些能力。比如说微软的 CEO 纳德拉就主张成长型思维,鼓励大家创新。微软公司从一个原来比较舒服的领域,PC 和操作系统,走向不熟悉但有更大发展空间的元计算和开源,给公司带来了更大的发展空间。

第三就是格局要高,即人生的境界要高,不能小富即安。举个例子,微软的创始人比尔盖茨,大家都知道他最近辞去微软董事会的职务,全心全意去做慈善了。他在微软公司的时候,一开始就立意高远。在公司规模还很小的时候,他就说,未来每个人桌子上都有个电脑,每个人电脑上都运行着我的软件。公司做大之后,他又想到人类共同发展遇到的一些问题,比如公共卫生等等,把钱和精力几乎全部投入到这些人类共同面对的问题上。我也希望,大家不要说未来多挣些钱、买套房子,就完事了。我们应该想到凭我们自己的能力走完这一生的话,能帮助人类解决很重要的问题,我们有本事、有能力去解决。

人生哲学之后,第二个是硬实力。数学非常重要,它是建立模型、进行推导、进行统计、找出规律必不可少的一个手段。刚才我介绍了神经网络自然语言处理,背后都是一些数学。其次,英语很重要。大学期间大家都学了很多英语,但是有的同学毕业之后到了国外,张不开嘴,看英文文献存在一些障碍。英语是一个不停学习、终身学习的过程。第三,我想强调编程的重要。我们有一个想法,如果不会编程的话,这些东西就沦为空想。会编程的话,一开始很稚嫩的一个程序,有新的想法、不停迭代,越来越好,最后才会有一些伟大的创新。

第三是软实力,这里稍微多说一下。

情商高的人,他了解自我,可以进行管理、自我激励,也了解别人的情绪,很好地处理人际关系,承受压力,自信但不自满。他尊重别人,肯于帮助别人,不怕失败。低情商的表现就是自我意识差,不自信,不确定目标,依赖他人,不考虑他人的感受,处理人际关系能力差,生活无序,爱抱怨,心理承受能力差,受不了一点打击,不与别人交流。

软实力还表现在对环境的适应能力。比如说大学毕业的同学聚在一起,你会发现有几位同学后来非常优秀,但是他并不是大学的时候学习最优秀,而是到了一个新的工作岗位或社会上,很快地调整自己,把自己的不足快速地补上来,跟别人学习、跟书本学,成为越来越优秀的人。可是,有好多人,他不太适应环境,总觉得环境对他不公,遇到挫折就灰心丧气,没有很好的成长空间。那么 10 年、20 年过去之后,他原地踏步,甚至倒退,而其他人在前进。

还有就是积极乐观的精神。积极的人看到每一次的挑战,都会看到一些机会,而消极的人,他会看到一些忧患。所以说“机遇”,既有危机,也有新的机会。

最后,我希望大家很好地规划你的大学 4 年。

刚入学的时候,是一个非常稚嫩但充满期待的人,一块璞玉,我希望你经过自己很好的努力和规划,4 年后走出校园,有一身武艺,可以剑走四方、行侠仗义,成为一个有勇有谋的国家栋梁。正如一句格言所说,理想如晨星,我们永不能触到,但我们可以像航海者一样,借星光的位置而航行。请你选择一条适合自己的路,坚持走下去,坚持下去直到成功。

这就是我今天的讲座,希望大家理解自然语言处理的核心技术,目前的发展和未来的趋势。我也希望大家考虑一下,你在研究的开始阶段也就是大学第一年的时候,调整一下自己,做出相应的规划,为未来的研究生涯做好准备。

Q&A

Q:现在我们做计算机编程的同学都在追捧算法岗,比如深度学习人工智能、NLP 等等,国家也在培养人工智能的新方向,大家越来越火热地往这个方向挤。这种现象健康吗?以后毕业能找到工作吗?

我认为,首先是人工智能非常重要,一是国家重视,二是现在有很大发展前途,包括软件硬件,各种应用例如安防、医疗、健康、交通等等,都有很多没有解决的问题。但是,并不意味着所有人都要追求去搞人工智能。现在学习一些人工智能,包括编程,为未来做不是人工智能的一些方向也有一定帮助。AI既是一个技能,也是一个思考方式,把思考方式应用在其他一些领域内,也会增强你的能力,提高你的创新速度。Follow your heart,看你想做什么,不一定别人做什么你就要做什么。同时也要兼收并蓄,在大学期间把关键的技术,尤其是基础部分,数学、算法、编程弄好,将来可以很容易地调整自己。

Q:很多同学觉得现在预训练模型横扫了我们的领域,需要极大的运算量,大家只能做 fine-tune 的任务,甚至实验室的条件做 fine-tune 微调都比较吃力。在这个方向上该怎么进行继续的研究,如何减少对计算力这么大的依赖?

因为我们同学还在学习阶段,没有到像 MSRA 或其他公司那种直接进行创新的阶段,所以主要经历还是放在学习已有的知识和基础上。学习要分两个阶段,前者是打基础,后者是应用,不同的阶段对资源有不同的要求,大家尽量去适应目前的资源情况,调配一下自己,不要为计算资源所累。

Q:有的同学在研究生物学,因为我们现在深度学习都是基于类脑的学习,这对我们机器学习有帮助吗?自然语言处理这些知识,很多需要往跨学科领域去做,能不能反过来,从别的学科往我们这个学科来做?

我觉得首先跨学科总是有帮助的,过去无数事实证明跨学科产生新想法,但是我们在实现跨学科之前,别盲目,先把自己的学科学扎实,把人类已有的经验、技能掌握好,在此基础上再去寻求跨学科。第二,最好请一个其他领域的同学或者老师跟你合作,大家各有所长,可以取得更好的进展,防止你过于偏颇。所以我觉得跨学科也要讲究循序渐进的过程。

回到脑科学,脑科学对自然语言处理,目前来讲没有证明有多么好的一些促进,未来有没有可能?有可能,因为可能会改进神经网络的一些算法或者结构。过去最早的神经网络也受脑科学的启发,但是目前来讲又停滞了,看不出来脑科学对 NLP 或其他人工智能有多么大的一个进展。也许未来积攒到一定程度,又有一个爆发的过程。我希望同学要 keep an open eye,首先了解自己的领域,同时也关注其他学科。试图捕捉未来的机会,但是不成熟之前,也不着急,打好基础,不一定要急于成功。

THU数据派
THU数据派

THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。

理论周明自然语言处理
相关数据
微软亚洲研究院机构

微软亚洲研究院于1998年在北京成立,是微软公司在亚太地区设立的基础及应用研究机构,也是微软在美国本土以外规模最大的一个研究院。微软亚洲研究院从事自然用户界面、智能多媒体、大数据与知识挖掘、人工智能、云和边缘计算、计算机科学基础等领域的研究,致力于推动计算机科学前沿发展,着眼下一代革命性技术的创新,助力微软实现长远发展战略。通过与微软产品部门紧密合作,微软亚洲研究院将众多创新技术转移到了微软的核心产品中,如Office、Windows、Azure、Bing、Visual Studio、Xbox Kinect以及小冰、Cortana和Microsoft Translator等人工智能产品。

https://www.msra.cn/
微软机构

微软是美国一家跨国计算机科技公司,以研发、制造、授权和提供广泛的计算机软件服务为主。总部位于美国华盛顿州的雷德蒙德,最为著名和畅销的产品为Microsoft Windows操作系统和Microsoft Office办公室软件,以及Xbox的游戏业务。微软是美国《财富》杂志2015年评选的世界500强企业排行榜中的第95名。

https://www.microsoft.com/en-us/about
周明人物

周明博士,微软亚洲研究院副院长、国际计算语言学协会(ACL)候任主席、中国计算机学会理事、中文信息技术专委会主任、术语工作委员会主任、中国中文信息学会常务理事、哈尔滨工业大学、天津大学、南开大学、山东大学等多所学校博士导师。 周明博士1985年毕业于重庆大学,1991年获哈尔滨工业大学博士学位。1991-1993年清华大学博士后,随后留校任副教授。1996-1999访问日本高电社公司领导中日机器翻译研究。他是中国第一个中英翻译系统CEMT-I(哈工大1989年)、日本最有名的中日机器翻译产品J-北京(日本高电社1998年)的研制者。 1999年,周明博士加入微软亚洲研究院,不久开始负责自然语言研究组。他带领团队进行了微软输入法、英库词典(必应词典)、中英翻译、微软中国文化系列(微软对联、微软字谜、微软绝句)等重要产品和项目的研发,并对微软Office、必应搜索、Windows等产品中的自然语言技术做出了重要贡献。近年来,周明博士领导研究团队与微软产品组合作开发了微软小冰(中国)、Rinna(日本)、Zo(美国)等聊天机器人系统。 周明博士发表了120余篇重要会议和期刊论文(包括50篇以上的ACL文章),拥有国际发明专利40余项。他多年来通过微软与中国和亚太地区的高校合作计划,包括微软-高校联合实验室、微软实习生计划、微软-高校联合培养博士生计划、青年教师铸星培养计划,与高校和学术组织联合举办暑期学校和学术会议等多种形式,对推动自然语言处理在中国和亚太的卓越发展做出了杰出贡献。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

自然语言理解技术

自然语言理解是人工智能的核心课题之一,也被广泛认为是最困难和最具标志性的任务。最经典的两个人工智能思想实验——图灵测试和中文房间,都是围绕自然语言理解来构建的。自然语言理解在人工智能技术体系中的重要性不言而喻,它一方面承载着机器和人的交流,另一方面直达知识和逻辑。自然语言理解也是人工智能学者孜孜以求的圣杯,机器学习的巨擘 Michael I. Jordan 就曾经在 Reddit 上的 AMA(Ask Me Anything)栏目中畅想用十亿美元建立一个专门用于自然语言理解的实验室。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

词嵌入技术

词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

语义分析技术

语义分析是编译过程的一个逻辑阶段, 语义分析的任务是对结构上正确的源程序进行上下文有关性质的审查,进行类型审查。语义分析是审查源程序有无语义错误,为代码生成阶段收集类型信息。比如语义分析的一个工作是进行类型审查,审查每个算符是否具有语言规范允许的运算对象,当不符合语言规范时,编译程序应报告错误。如有的编译程序要对实数用作数组下标的情况报告错误。又比如某些程序规定运算对象可被强制,那么当二目运算施于一整型和一实型对象时,编译程序应将整型转换为实型而不能认为是源程序的错误。

注意模型技术

注意模型是采用了注意力机制的机器学习模型,注意力机制是在编码器-解码器结构下用于神经机器翻译(NMT)的一种结构,它已经非常快速地扩展到了其它相关任务,例如图像描述和文本摘要等。直观而言,注意力机制通过允许解码器在多个向量中关注它所需要的信息,从而使编码器避免了将输入嵌入为定长向量,因此能保留更多的信息。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

语料库技术

语料库一词在语言学上意指大量的文本,通常经过整理,具有既定格式与标记;事实上,语料库英文 "text corpus" 的涵意即为"body of text"。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

操作系统技术

操作系统(英语:operating system,缩写作 OS)是管理计算机硬件与软件资源的计算机程序,同时也是计算机系统的内核与基石。操作系统需要处理如管理与配置内存、决定系统资源供需的优先次序、控制输入与输出设备、操作网络与管理文件系统等基本事务。操作系统也提供一个让用户与系统交互的操作界面。

迁移学习技术

迁移学习是一种机器学习方法,就是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中。迁移学习是通过从已学习的相关任务中转移知识来改进学习的新任务,虽然大多数机器学习算法都是为了解决单个任务而设计的,但是促进迁移学习的算法的开发是机器学习社区持续关注的话题。 迁移学习对人类来说很常见,例如,我们可能会发现学习识别苹果可能有助于识别梨,或者学习弹奏电子琴可能有助于学习钢琴。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

多任务学习技术

联邦学习技术

如何在保护数据隐私、满足合法合规要求的前提下继续进行机器学习,这部分研究被称为「联邦学习」(Federated Learning)。

语言学技术

每种人类语言都是知识和能力的复合体,语言的使用者能够相互交流,表达想法,假设,情感,欲望以及所有其他需要表达的事物。语言学是对这些知识体系各方面的研究:如何构建这样的知识体系,如何获取,如何在消息的制作和理解中使用它,它是如何随时间变化的?语言学家因此关注语言本质的一些特殊问题。比如: 所有人类语言都有哪些共同属性?语言如何不同,系统的差异程度如何,我们能否在差异中找到模式?孩子如何在短时间内获得如此完整的语言知识?语言随时间变化的方式有哪些,语言变化的局限性是什么?当我们产生和理解语言时,认知过程的本质是什么?语言学研究的就是这些最本质的问题。

找到机构
推荐文章
暂无评论
暂无评论~