Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

赵雅琦作者UP主 “图灵的猫” 来源

爆肝100天,B站UP主开发会写高考作文的AI,内含17亿参数、2亿数据、1万行代码

前段时间,浙江高考满分作文《生活在树上》因为晦涩难懂的内容,刷爆了各种社交媒体。外行人看热闹,内行人看门道,大神们透过现象看本质。

一般来说,高考作文可以通过批量化、模式化的训练达到一个令人满意的分数。实际上就是把学生当做一个写作机器进行训练,为学生输入大量范文,提供写作模式,然后进行长时间的学习。等等,这不是和人工智能的训练过程相同吗?

那么,如果给一个人工智能系统同样的数据,是否可以教会它写作文呢?

答案是,当然可以。B 站 UP 主 - 图灵的猫,秉承了心动不如行动的理念,一个人利用三个月,500 个小时,10000 行代码,200000000 条数据,1700000000 个参数,开发了一个会写作文的人工智能 - EssayKiller。

EssayKiller 的基本组成

一个 AI 不管外形和功能如何,其核心都是人工神经网络。EssayKiller 也是由四个不同的神经网络所组成。
第一部分是类似于人类的视觉处理系统的识别网络。它通过外接摄像头的实时 OCR 以及卷积神经网络及汉字的识别与提取并将结果输入到下一层的网络中。
第二部分是语言网络,旨在模范人类大脑的语言功能。在这里 UP 主将它分为两个子网络,相较于人类的颞叶区和额叶区等复杂构成,它更加简明扼要。一个子网络为读题网络,也就是对高考题目进行准确的阅读和主题摘要提取。

另一个子网络为写作网络,也就是根据主题摘要进行文章的写作。后者是整个 AI 的核心,基于这个神经网络,EssayKiller 才能获得理解并输出汉字的能力。
第三部分是判分网络。正常学生写完一篇八百字的高考作文通常需要 40 分钟,而 EssayKiller 只需要 0.1 分钟。显然,在同样的时间里,EssayKiller 可以利用其快速写作的能力,在它的大脑中同时生成多篇作文,然后选出最好的一篇来作答。
UP 主说,这个想法借鉴了 AlphaGo 的设计理念。他利用 API 调用单独的神经网络,对 100 篇作文进行通顺度打分,取分数最高的一篇作文输出。理论上,只要了解于出题人的偏好,并且让 AI 完美拟合阅卷人喜欢的作文,就可以轻而易举的拿到高分。

这和训练学生写高考作文的过程是如出一辙,这也是近年来很多满分作文的套路,比如《生活在树上》。

EssayKiller的学习过程

通过 UP 主说起来看似很简单,其实非大神一操作就跪拜的四大网络搭建过程后,EssayKiller 就算是出生了。此时的它还是一张白纸,需要投喂大量数据养成。俗话说,读万卷书 AI 才能写出好作文。
接下来就是 EssayKiller 不是很漫长的学习过程了。UP 给它投喂了大量的优质散文、议论文,比如近现代散文集、历年高考作文等,然后让它自我训练并进行写作能力的提升。出于 UP 主的个人喜好,还为它增加了林语堂、木心、鲁迅等散文作家,也加入了一些现代作家,比如王小波、史铁生、王硕等。
最后通过整理来的 360 万张图像数据、2 亿条中文预训练语料以及上千篇微调文章,EssayKiller 带着 UP 主满满的爱开始了它的“漫漫”求学之路。

事实证明,没有人能够随随便便成功。此时,出现了一个 “愉快” 的小插曲。OOM,全称 “Out of Memory”,翻译成中文就是“内存用完了。”

EssayKiller 的神经网络参数量已经达到了惊人的 17 亿,一般的显卡已经不能承受这么大的网络规模和计算量。在 UP 主多次尝试,均属失败告终后,他终于发现,EssayKiller 已经超越了目前市面上可见的任何一个单 GPU 的运算内存限制。最终,UP 主斥巨资选择 RTX8000,成功的让 EssayKiller 开始训练。果然,培养孩子都是得花钱的。
经过 137 个小时的不间断学习后,EssayKiller 终于成为一个合格的高中生。接下来就是激动人心的测试时间。UP 主选择了两个全国卷和两个地区高考卷。EssayKiller 用它骄傲和自豪的 17 亿神经网络参数的多模块异构深度神经网络,通过 UP 主编写的高考格式排版脚本,搭配改装后的外接装置,对文本进行实时输出,在规定时间内将作文誊写到答题卡上。最终贡献了四篇很不错的高考作文。(写作过程如开头眼花缭乱的动图。)

小编选择了浙江卷的作文成果,为大家展示一下 EssayKiller 的写作实力。
(为了方便阅读,对截图进行了裁减。文章以右侧为准。)

没错,是高考作文那熟悉的味道。别的先不说,感觉可能会扣一点卷面分。网友们普遍认为,差不多是 45 分的水平。首先语言是通顺的且能读懂的,但是缺少一些烟火气的灵魂。大概还是可以感觉到一丝不是人的气息。

但是小编认为,其实我们已经先入为主了这篇文章是 AI 写的,如果让大家盲选,结果如何还是很难判断的。

此外,也有热心网友提供了新的思路:写机关公文文件,难度会更小,且效果会更好。


还有热心网友提供了:AI 做视频,“我淘汰我自己”的绝妙思路。


既然如此,那就拭目以待各位大神的新产品了。当然,暂时并不希望出现一款写公众号的 AI,不然小编就要失业了。

最后指路:

B站视频链接:https://www.bilibili.com/video/BV1pr4y1w7uM
项目github传送门:https://github.com/EssayKillerBrain/EssayKiller_V2

最最后,感谢 UP主-图灵的猫三个月爆肝的 EssayKiller,并期待新的视频与大家分享。

本文报道已获 UP主 “图灵的猫” 授权。
AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
产业EssayKiller神经网络
11
相关数据
人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

卷积神经网络技术

卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 卷积网络是一种专门用于处理具有已知的、网格状拓扑的数据的神经网络。例如时间序列数据,它可以被认为是以一定时间间隔采样的一维网格,又如图像数据,其可以被认为是二维像素网格。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

量化技术

深度学习中的量化是指,用低位宽数字的神经网络近似使用了浮点数的神经网络的过程。

推荐文章
WillPro
“为什么跪着看推文” “得跪着”