Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

dawnbreaker作者知乎来源

6次Kaggle计算机视觉类比赛赛后感

链接:https://zhuanlan.zhihu.com/p/37663895

我从2017年年初开始接触kaggle。曾翻阅知乎上很多关于kaggle的回答和文章,然而逐渐发现大部分文章中提到的经验和技巧是针对传统machine learning类比赛的,对计算机视觉类的比赛并不适用。此刻已是2018年6月,我也参加过了多次比赛,或多或少有了一些自己的观点和感想。因此我写这一篇文章希望对现存文章进行一定程度的补充,以供刚刚接触kaggle计算机视觉(CV)类比赛的同学参考。尽管此文会充斥个人观点和猜测,我会尽量提供论据并淡化感情色彩。这是我在知乎的第一篇文章,希望大家能够多多鼓励和批评。

一、我的成绩

  • 第一次The Nature Conservancy Fisheries Monitoring
    排名: 16th of 2,293 ⋅ Top 1% ⋅ 角色:队长。另一个队员叫孙鹏,是同一实验室的同学

  • 第二次Carvana Image Masking Challenge
    排名: 12th of 735 ⋅ Top 2% ⋅ 角色:前期单刷,后来基本上由女朋友完成。

  • 第三次Cdiscount’s Image Classification Challenge
    排名: 15th of 627 ⋅ Top 3% ⋅ 角色:基本是单刷。偶尔和女友以及朋友讨论一下。

  • 第四次Statoil/C-CORE Iceberg Classifier Challenge
    排名: 28th of 3,343 ⋅ Top 1% ⋅ 角色:打酱油。队长是孙鹏。

  • 第五次Google Landmark Recognition Challenge
    排名: 9th of 483 ⋅ Top 2% ⋅ 担任角色:单刷

  • 并列第五次Google Landmark Retrieval Challenge
    排名: 22th of 218 ⋅ Top 11% ⋅ 角色:单刷。基本上只用landmark recognition比赛的代码跑了一下,没有进行调参等尝试,完全是投机取巧。

这六次比赛皆为计算机视觉类的任务。我还曾试图参加TensorFlow Speech Recognition Challenge这个语音识别类的比赛,最终因为自己过于外行和精力不足知难而退。

以上就是我的全部比赛经历。

二、kaggle上的两个世界

kaggle的比赛任务大致都是根据已知信息,对测试集里的数据进行某种预测。按照主流方法是否涉及到deep learning来分,大概有两种比赛:

A.一种比赛比较适合传统的machine learning方法,要想取得好成绩,可能要在feature engineering和ensemble方面大做文章。但基本用不上deep learning,因此有没有好的GPU无关紧要。这类比赛的例子有房价预测等:

House Prices: Advanced Regression Techniques

Zillow Prize: Zillow’s Home Value Prediction (Zestimate)

Two Sigma Financial Modeling Challenge

Sberbank Russian Housing Market

Instacart Market Basket Analysis

Web Traffic Time Series Forecasting

Mercedes-Benz Greener Manufacturing

B.另一种比赛现阶段主流的解决方案是各种深度神经网络,主要以计算机视觉类为主,任务包括image/video classification, object detection, image masking。偶尔也有语音识别类任务。迄今为止我参加过的比赛都是这一种。参加此类比赛对硬件有一定程度的要求。比如说有一个台式机和一块或多块Titan X/1080ti会对模型的迭代帮助很大。但用笔记本GPU甚至完全不用GPU并且排名靠前的人也是有的:

  • 例1:我的同学孙鹏,用笔记本上的980M.

  • 例2:一个叫Eric的Kaggler,用5个无GPU的电脑跑PyTorch,Google Landmark Recognition Challenge中获得28th/483排名。参见I enjoyed this competition: Feedback from a newbie!

  • 例3:一个ID为ImageRecog的Kaggler,声称用笔记本打比赛,在Google Landmark Retrieval Challenge中赢得季军。(不确定后期有没上更强大的硬件。)

但总归会痛苦很多。

很多kagglers对这两类比赛之一表现出了明显的偏好。如 @砍手豪因为缺少用来训练神经网络的硬件,而倾向于参加A类比赛(参见:《零基础自学两月后三月三次轻松进入kaggle比赛top20小结》)。而我自己迄今参加的都是B类的比赛,原因是自己习惯于处理计算机视觉类的任务,而对传统machine learning任务尤其是时序预测方面了解比较少,不想进去垫底。如此一来kaggle上仿佛存在着两个不同的世界。A、B类比赛都很投入地去参加的人当然也是存在的,只是据我所见大部分人都倾向于参加其中一类。

我在此强调这两类比赛的区别,一个重要原因是,我发现迄今为止知乎上大部分的kaggle入门指南大都是针对A类比赛的。例:

参加kaggle竞赛是怎样一种体验? - Naiyan Wang的回答 - 知乎 @Naiyan Wang
参加kaggle竞赛是怎样一种体验? - Alex Hsu的回答 - 知乎 @Alex Hsu

零基础自学两月后三月三次轻松进入kaggle比赛top20 -- @砍手豪

分分钟带你杀入Kaggle Top 1% -- @吴晓晖

Kaggle 入门指南 -- @Linghao Zhang

Kaggle 首战拿银总结 | 入门指导 (长文、干货) -- @Scarlet Pan

随机森林——实现Kaggle排名Top2%的利器 -- @胡阿白

Kaggle实战(2)—房价预测:高阶回归技术应用 -- @Datacruiser

B类比赛的文章/回答则少得多,例:

参加kaggle竞赛是怎样一种体验? - AI研习社的回答 - 知乎 -- @AI研习社@郑华滨@蒋礼斌

我在Kaggle數海獅 -- @outrunner

Kaggle 的比赛在 Machine Learning 领域中属于什么地位? - 幻云羽音的回答 - 知乎 -- @幻云羽音

我希望本文可以对关注B类比赛的kaggler提供一些参考。

三、靠套路而豪无创新究竟能得到怎样的成绩?

有人说kaggle比赛全靠套路。这句话隐含的意味是要想在kaggle上获得好成绩,靠的是套路而不是智慧和灵感,或者靠的不是真正的技术。如果去杠的话,我们也可以说发paper也是靠套路。但我想,即使真的是靠套路,也未必是一件完全的坏事,套路中也能体现高下之分,套路中也能体现出能力的强弱吧。很多kaggler的成绩都是比较稳定的。比如bestfitting连续在6个比赛中得了Top 3。比如Fangzhou Liao四次参加比赛全部都是冠军。而我大部分时间都进不去Top10,也从未出过Top30,大概是因为我总也没参透Top10选手的套路,而排名30+的参赛者总也没参透我的套路吧。

那么靠套路而豪无创新究竟能得到怎样的成绩?我来试图给出一个下界出来:

1.在Carvana Image Masking Challenge中我的第一个baseline模型是Unet,而且图省事用的是pytorch-CycleGAN-and-pix2pix中的Unet。为了赶快跑出个结果我把图片从大约1000x700缩小成了256x256大小。没有经过任何调参的第一次提交结果是(Private Leaderboard) Dice coefficent = 0.985517,比赛结束时这个成绩可以排到top 72%.把图片大小改成768x512之后,未经任何其他修改,成绩是coefficent = 0.995050,比赛结束时可以排到top 53%.

2.在Cdiscount’s Image Classification Challenge中我的第一个baseline模型是Pytorch的Resnet101,第一次提交的成绩是Accuracy = 0.71929,比赛结束时这个成绩可以排进Top 12%.

3.在Google Landmark Recognition Challenge中我的第一个baseline模型是ResNet50,第一次提交的成绩是GAP = 0.115.我后来在讨论区把这个模型的训练公开了,即便如此,这个成绩在比赛结束时居然也可以排到Top 14%.我的第二个baseline模型DELF成绩是GAP = 0.203,比赛结束时可以排进top 4%!

4.在Google Landmark Retrieval Challenge中我套用了Recognition中使用的DELF代码,第一个模型既是最后一个模型,没有调优过程,排名11%.

5. The Nature Conservancy Fisheries Monitoring是个two-stage比赛,两个stage用的测试集不同,并且stage 1的成绩已被主办方清空所以我无法判断我们第一个baseline模型可以在最终的leaderboard上排第几。

6. Statoil/C-CORE Iceberg Classifier Challenge这个比赛我是打酱油的,前期的实验细节我手头暂时缺失。

以上经验表明,只要选择了与任务相对应的state-of-art模型,在代码无bug,没有实验设置错误的情况下,排进Top 50%甚至Top 15%难度很小。那么另外的50%~85%的参赛者出了什么问题呢?我猜可能原因有如下几种:

1.根本不知道state-of-art模型是什么,也不知道怎么检索或者没有检索的意识。

例:想强行套用mnist分类的方法来解决image retrieval问题。

2.不想离开心理舒适区,而选择自己相对比较熟悉或容易上手的工具、库和模型。

譬如说因为喜欢用keras或者keras刚入门而只用网上找得到源码的基于keras的模型。

3.或多或少知道state-of-art模型的存在,但硬件条件有限,而选择对计算资源要求不高的模型。

例:因为硬盘小或网速慢而下载缩小几倍的图片代替原图来进行训练的。

4.代码有bug,debug苦手。

5.实验设置有问题。比如存在逻辑错误或者参数有严重问题。

四、参加比赛有什么好处

至于说为什么有50%~85%之多,如果说不是向来如此,也许是最近几年kaggle更火了,入门者也更多了吧。我去年(2017)在国内已经发现很多人在求职简历里写kaggle比赛经历。至于kaggle比赛经历对求职有多大好处我还不能确定。值得一提的是,我在参加第一次比赛感觉坚持不下去的时候,是看了 @lau phunter的帖子坚持下去的:

2017-8-22更新:两年过去了大家参加Kaggle热情高涨标准也水涨船高,以下标准请浮动一级。
原答案:
获奖的都是有真本事的人,在上面练几个题目得个好名次,十分能证明你对数据科学这个领域的实践和理解。我现在招人的时候几乎是这个标准:
写上参加过Kaggle比赛,我会看简历。
得过一次10%,我会给电话面试。
得过2次或者以上10%,我会给on site面试。
得过一次前10,我们会谈笑风生。
楼主加油。

作者:lau phunter
链接:zhihu.com/question/3203
来源:知乎

虽然水涨船高,总归有人认可是好事。

我想从一个平常人的角度来讨论kaggle比赛能给我们带来什么。我先来举几个不适合平常人的角度:

1.一个网上经常被讨论的话题,就是“paper重要还是比赛成绩重要”。我想,能考虑这个问题的人并不适用那种很极端的情况:例如ILSVRC(Imagenet)如果能得第一自然也能把方法发到顶会上去。——ILSVRC能得冠军的人根本不会疑惑这种问题吧。

2.“如果进了前几名还可以获得奖金。”如果不是Grandmaster的级别(例:Vladimir Iglovikov一年内获得奖金$28k),平常人的收益风险比恐怕还不如去搬砖。

而平常人真正容易面对的情况是,发顶会paper被拒或者根本写不出来,参加比赛成绩不算拔尖或者被吊打。我认为如果一个人如果花时间可以换来顶会一作,那么不参加kaggle也没有什么遗憾的。

Kaggle常年都有各种比赛,有整理好的数据集,有各种kernel和帖子教你怎样下载和使用数据集,甚至会给出一些baseline代码。获胜者也会分享他们的solution。这些特点对于那些想要尝试一些曾经没做过的计算机视觉任务的人来说是十分新手友好的。这里的新手指代的不一定是计算机视觉方面完全的新手,比如说如果你本来只熟悉物体识别,想尝试一下语义分割,那么kaggle也可能很适合你。

Kaggle还有一大特色就是实时的leaderboard,非常残酷。如果你什么都不做,你的比赛名次只会下降。这会造成一种心理的刺激,给你压力/动力让你改善模型——当然这也是一种精神折磨。

我还有一个感想是:kaggle比赛给了每个AI爱好者被考验的免费机会。可以让一些喜欢空想和嘴炮的人检查一下自己是不是如同想象的那般厉害。但这个感想的诡异之处在于,由于我上文中提到的,只要正常跑通一个ResNet101就可能进Top 15%,而或许有人觉得Top 15%很了不起,这样一些喜欢空想和嘴炮的人参加kaggle之后或许真的觉得自己很厉害了。So paradoxical……!

还有就是会认识很多志同道合的网友,这一点不展开讨论了。

五、陷阱和一些技巧

1.每场比赛会有多少人参与?

计算机视觉类比赛用到的数据通常是图片和视频,无论是空间占用还是计算量都比较大,大到很多人不得不因为硬件资源,或处理大规模数据的经验和能力问题,而不愿意参与数据集较大的比赛。这导致了一场比赛的参与人数和数据量强相关。小数据集的例子如2018 Data Science Bowl训练集只有80M左右,参与队数高达3634,Statoil/C-CORE Iceberg Classifier Challenge训练集只有43M,参与队数高达3343。数据集比较大的如 Cdiscount’s Image Classification Challenge训练集60G,参与队数为627。而Google Landmark Recognition Challenge的训练集要170G左右,参与队数为483。

另一个决定参与人数的主要因素是任务的复杂程度和生僻程度。纯分类任务比较受欢迎,其次是语义分割等任务。这些比较受欢迎的任务特点是门槛比较低,网上找得到大量现成的代码和模型(如VGG、ResNet、Unet、SegNet),会调库无需深入了解原理甚至可能不用调参就能跑出像模像样的结果。(因为诸如图片分类等任务门槛特别低,以至于被某些人当做AI从业者的黑点。对此类黑点的态度不在本文的讨论范围。)Google Landmark Recognition Challenge和Google Landmark Retrieval Challenge数据集大小几乎一样,因为retrieval问题的门槛相对比较高,后者的参与队伍数不到前者的一半。而NIPS 2017: Targeted Adversarial Attack这个对抗攻击任务,只有65队参加。

硬件条件好,经验丰富,能力强的人不太在乎如上两点因素,并且排名靠前经常霸榜的人大都是这样的人,因此一个人的期望排名和参与总队伍数并非是线性关系。——譬如说,我在两千队参与的比赛中得了第16,那么同样的水平和发挥,我在六七百队参与比赛中就能进前10吗?没那么容易,事实证明我在六七百队参与的比赛中依然是第十几名。当然这里没有考虑到运气成分,只是个粗略的例子。

由于我抱以上述观点,显而易见我个人看重绝对排名胜于Top百分比。但会有很多人偏好于追求一个漂亮的Top百分比。我的建议是,想要top百分比好看,或者目标是铜牌和银牌的同学应该多参加人多的比赛。人再多,Top 10%都保证有铜牌,Top 5%都保证有银牌;而人多的情况下进Top 10%甚至Top 5%的几率也大。(金牌的规则不一样,队伍总数1000+的情况下金牌数只有 。参见Kaggle Progression System)

2. Public Leaderboard陷阱

数据集小的比赛虽然门槛低,却并不真的简单容易。较小的样本量会导致验证集和测试集的样本分布差异较大。加上由于计算量小,模型迭代(这里指更新换代,不是训练一个iteration)速度快,很容易导致一种后果:overfit到验证集上,这种后果导致的常见悲惨结局是比赛结束的时候发现Public leaderboard成绩还不错,但是Private Leaderboard上的排名一落千丈(通常Public Leaderboard会被当成是某种意义上的验证集)。例如Statoil/C-CORE Iceberg Classifier Challenge 的两个leaderboard上有很多人有一百多甚至两百多的排名变化,相比较而言,数据量大了的三个数量级的Cdiscount’s Image Classification Challenge绝大部分人排名都没有变化,少数有1~2名的浮动。

对此我只有一句空洞的建议:合理的evaluation策略至关重要。Kaggle排名第一位的bestfitting(真名Shubin Dai,中国人)称:

A good CV is half of success. I won’t go to the next step if I can’t find a good way to evaluate my model.

———链接:Profiling Top Kagglers: Bestfitting, Currently #1 in the World

这些大佬们每次在比赛结束公布Private Leaderboard的时候排名都比较稳定,不太容易下降很多。可见看似是取决于运气的排名大震荡,在大佬手里是有办法控制的。这大概就是真功夫吧。

3.马甲和私享代码

在数据集小的比赛中,由于迭代速度比较快,每天提交的次数又有限制(大部分比赛是5次),所以经常会有人注册小号来提交结果。在数据集较大的比赛中,后期也偶有这样的现象。有的人在排名比较好的时候会私下里把代码分享给别人(比如同学),以求一人得道鸡犬升天……。我在比赛中见过几次别人注册马甲或私享代码。譬如说一夜之间就冒出了一堆三无账号,成绩还都差不多。或者在成绩对参数极其敏感的任务中一次提交就飞进Top5%,一发入魂。一人多号和私享代码是违背比赛精神的,也是Kaggle命令禁止的,并且也是Kaggle会探测和封杀的。可悲的是,经常会有中国人这样做。为什么我这么确定?因为有些账号的ID用的是拼音,或者地址选了China。真是又坏又蠢,作弊本已可耻,却还要披着中国人的形象。大概是觉得自己聪明,占了便宜却无人知晓吧……然而最终这些账号都被主办方踢出了比赛或者删号处理。

4.刷全站排名

全站排名取决于你在过往比赛中取得的总积分,积分公式如下图:

截图来源:Improved Kaggle Rankings (图侵删)

积分是随着时间呈指数衰减的。这意味着,如果要刷高自己的排名最高纪录,那么参加几次间隔很久的比赛,不如参加几次间隔很短的比赛。

另外参加任何的比赛都不会减分,所以片面地追求全站排名不太在乎提高自身水平的,可以考虑在海量的比赛中打酱油。这是一个病态无聊但可行的策略。

5.更多的supervision

在绝大部分的比赛当中,在训练集上做额外的标记都是不违反规则的,只要在规定的时间(有些比赛是deadline的两周以前)以前上传到讨论区和其他参赛者分享。譬如说,在鱼类识别的任务中,你可以用bounding box标记出鱼的位置。在海狮计数的任务中你可以用mask来标记出每一个属于海狮的像素。这些额外的标记通常都能帮助训练出更好的模型。但开销也不小。另外要注意的是,在测试集上做标记是明令禁止的作弊行为。

六、其它

1.参加计算机视觉类的比赛需要多少GPU

一两块Titan X, 1080或1080Ti就够了。一块980也勉强可以。四块以上的GPU当然更好,但GPU多了其实很难充分利用到。运算速度快到一定程度,人脑debug、分析问题、想idea的时间就成了主要的速度瓶颈。如果不怎么分析问题,不怎么想idea,走无脑穷举试错的路线,以图速度或图省事,很容易走偏。高手们会根据自己的经验和直觉来快速尝试不同的模型,所以驾驭得了更多GPU。如果你有“只要给我更多的GPU我肯定能大幅提高排名”这样的自信,不妨试试aws上的spot instance,如果确实如此,那就可以攒钱或求赞助来入手GPU了。

诚然,小数据集的比赛对GPU要求很低,甚至750M这样的GPU也可以用。但是因为迭代速度太快,以及leaderboard每天都有大浮动,这样的比赛参加起来特别费肝……

2.什么样的排名算是一个好的排名

Jeremy Howard在2017年年初或2016年年末(记不清了)的fast.ai的教学视频里(出处懒得求证了)说:排进Top 50%,说明你的模型还OK;排进Top 10%,说明你是这个领域的专家;排进Top 10说明你是世界上最顶尖的专家。他的这段话过于乐观了。很多时候排名看起来还可以,只是因为真正的(诉诸纯洁:P)专家们和大佬们大多没有时间参加kaggle而已。但这么想似乎也是有失公允的,因为菜鸟和外行们也大都没有参加kaggle。所以谁知道呢……?

贪心科技
贪心科技

贪心科技——让AIGC塑造人机协作新范式。 贪心科技是一家人工智能科技公司,主要从事行业大模型的研发,面向企业的大模型落地,以及AIGC技术的全面普及。公司的主要产品包括 AIGC实验室平台(AIGC for Everyone), 面向垂直行业的大模型产品(教育、人力资源、智能制造等行业),和企业级Copilot生成平台。

入门Kaggle计算机视觉
91
相关数据
VGG技术

2014年,牛津大学提出了另一种深度卷积网络VGG-Net,它相比于AlexNet有更小的卷积核和更深的层级。AlexNet前面几层用了11×11和5×5的卷积核以在图像上获取更大的感受野,而VGG采用更小的卷积核与更深的网络提升参数效率。VGG-Net 的泛化性能较好,常用于图像特征的抽取目标检测候选框生成等。VGG最大的问题就在于参数数量,VGG-19基本上是参数量最多的卷积网络架构。VGG-Net的参数主要出现在后面两个全连接层,每一层都有4096个神经元,可想而至这之间的参数会有多么庞大。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

验证集技术

验证数据集是用于调整分类器超参数(即模型结构)的一组数据集,它有时也被称为开发集(dev set)。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

随机森林技术

在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。而"Random Forests"是他们的商标。这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。这个方法则是结合Breimans的"Bootstrap aggregating"想法和Ho的"random subspace method" 以建造决策树的集合。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

物体识别技术

计算机视觉领域的一个分支,研究物体的识别任务

CycleGAN技术

GAN的一个变种

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

知乎机构

知乎,中文互联网综合性内容平台,自 2010 年成立以来,知乎凭借认真、专业、友善的社区氛围,独特的产品机制,以及结构化、易获得的优质内容,聚集了中文互联网科技、商业、影视、时尚、文化等领域最具创造力的人群,已成为综合性、全品类,在诸多领域具有关键影响力的内容平台。知乎将AI广泛应用与社区,构建了人、内容之间的多元连接,提升了社区的运转效率和用户体验。知乎通过内容生产、分发,社区治理等领域的AI应用,也创造了独有的技术优势和社区AI创新样本。

zhihu.com
棒谷科技・数据分析师
神仙情侣