AI每日精选
AI每日精选10条
投融资
智能运维产品提供商「擎创科技」完成亿元级B轮融资
11 月 26 日消息,智能运维产品提供商「擎创科技(EOITEK)」已于今年 7 月完成亿元级别的 B 轮融资。本轮融资由新加坡淡马锡旗下的科技基金 ST Telemedia 领投,由擎创既有股东火山石资本、元璟资本和晨晖创投跟投,由多维海拓担任独家财务顾问。目前,「擎创科技」已完成在主要关键行业的灯塔客户开拓工作,因此本轮融资将更多地投放在扩大市场规模的方向上。
大公司新闻
科大讯飞股份有限公司注册资本新增至约22亿
天眼查数据显示,11 月 25 日,科大讯飞股份有限公司发生工商变更,其注册资本由原来的约 21 亿,新增至约 22 亿。科大讯飞股份有限公司成立于 1999 年 12 月,法定代表人、最终受益人为董事长刘庆峰,经营范围包括增值电信业务,专业技术人员培训等。
微软和能源技术公司 Baker Hughes 宣布建立 AI 合作伙伴关系
工程专家称人工智能可以帮助公司提高效率,减少碳足迹并帮助确保工人安全。现在,微软正与能源行业技术公司 Baker Hughes 和 AI 开发人员 C3.ai 合作,通过其 Azure 云计算平台将企业 AI 技术引入能源行业。两家公司表示,他们的联盟将使客户能够简化旨在解决库存,能源管理,预测性维护和设备可靠性等问题的 AI 的采用。微软全球商业业务执行副总裁 Judson Athoff 在新闻中说:「对于能源行业来说,这是一个重大变革的时代,具有远见的公司正在探索如何利用技术使他们的运营更清洁,更安全,更高效。」
产品与应用
联发科发布首款双模双载波5G芯片天玑1000
机器之心 11 月 26 日消息,联发科今日发布旗舰级 5G 单芯片天玑 1000,它是首款 5G 双模双载波聚合芯片,相比友商旗舰,5G 信号覆盖提升 30%,2 倍网络速度。它同时支持 WiFi6,支持 5G+5G 双卡双待。 天玑 1000 首发 4 核 A77 CPU 和 Mali G77 GPU,安兔兔 V8 版本下跑分达 51 万分,排名第一。它还搭载全新的 APU 架构 3.0,采用两个大核,3 小核,一个微小核,性能比上代提升 2.5 倍,能效提升 40%。AI 跑分刷新苏黎世跑分榜,达 5.6 万,排名第一。
微信「刷脸就医」功能正式接入中南大学湘雅医院
11 月 25 日,微信「刷脸就医」功能正式接入中南大学湘雅医院,用户可通过「刷脸」快速完成挂号、签到、缴费、查报告等一系列就诊流程。湘雅医院「刷脸就医」功能上,首批已落地多台设备,能够满足大部分用户的需求。
研究与技术
新加坡国立大学新研究,用于柔性软机器人的新型金属材料
近日,一个由新加坡国立大学研究人员组成的团队已开发出一种新颖的方法以制造用于软机器人的新型金属基材料。这种新材料将铂等金属与烧过的纸(灰烬)结合在一起,具有更强的功能同时也保持了传统纸和塑料的可折叠性和轻便性。该新材料的重量是纸的一半,这也使其具有更高的功率效率。这些特性使这种材料成为制造柔韧而轻巧的假肢的强有力的材料选择,例如使用其材料的假肢重量比传统假肢轻 60%。这样的假肢可以提供实时的应变感测,以反馈有关其弯曲程度的信息,从而为用户提供更好的控制和即时信息。同时还无需外部传感器,也避免了将给假肢增加不必要的重量。(Science Daily )
亚马逊研究人员使用 NLP 数据集来改善 Alexa 的回答
去年 Adobe 进行的一项调查显示,超过 50%的美国智能音箱用户说他们会向自己的设备提问题。面对日新月异的智能音箱市场,谷歌、苹果和微软等技术巨头都希望提高各自语音助手对问题的回答质量,因此他们试图解决各自在自然语言处理(NLP)技术上的不足。为此,亚马逊科学家最近训练了一种 NLP 模型,能从一组比当前的基线更好的答案候选中选择问题的答案。他们说,他们的方法「转换和调整(TANDA)」基于谷歌的 Transformer,可以有效地快速适应仅仅只有少量培训数据的新领域,同时获得比传统技术更高的准确性。(VentureBeat)
斯坦福大学、京都大学、佐治亚理工学院联合新作,「自动中和文本中的主观偏见」
近日,斯坦福大学、京都大学、乔治亚理工学院联合推出新研究论文,该研究概述道:新闻,百科全书和一些社交媒体等文字工作者都在努力在文本中体现客观。但是,偏见不可避免地会以不适当的主观性形式出现,通过不同场景,预先设定真相,并由此产生疑问等等。这种偏见破坏我们的集体信任并加剧社会冲突。该研究介绍了一种新颖的针对生成的自然语言进行测试的平台:自动地将不合适的主观文本变成中性的观点(「中和」有偏见的文本)。我们还提供有偏见的语言的第一个平行语料库。该语料库包含 180,000 个句子对,源自维基百科的编辑删除了有偏见的句子中的各种构架,预设和态度。最后,我们提出,该任务有两个强大的编码器 / 解码器基准。一个简单但不透明的 CONCURRENT 系统使用 BERT 编码器来识别主观单词,作为生成的一部分处理。另一项可解释且可控制的模块算法使用(1)基于 BERT 的分类器将这些步骤分开识别有问题的单词,以及(2)嵌入新颖的联接,分类器可以通过该联接来编辑隐藏状态编码器的跨四个领域(百科全书,新闻头条,书籍和政治书籍)。研究人员认为,这些算法是自动识别和减少偏差的第一步。
Quoc Le 等人新研究论文,「对抗样本可改善图像识别」
近日,Quoc Le再推新研究论文,在题为“对抗样本改善图像识别”一文中,其与其他研究人员针对研究概述道:对抗样本通常被认为会威胁到 ConvNets。在这里,我们提出相反观点:以正确的方式能利用对抗样本改善图像识别模型。我们提出 AdvProp,一种增强的对抗训练将对抗性样本作为其他样本,以防止过度拟合。当模型更大时,我们证明 AdvProp 改进了各种模型,在各种图像识别任务上表现更好。例如,通过应用 AdvProp 使用 ImageNet 上的最新 EfficientNet-B7,我们实现 ImageNet 的显着改善(+ 0.7%),ImageNet-C(+6.5%),ImageNet-A(+7.0%),StylizedImageNet(+ 4.8%)。借助增强的 EfficientNet-B8,我们的方法实现了最新的 85.5%ImageNet top-1 精度,且无需额外数据。
使用 GPU 加速无监督降维算法 TSNE:从几小时到几秒
TSNE(T 分布随机邻域嵌入)是一种流行的无监督降维算法,其用途非常广泛,包括神经病学,图像相似性和可视化神经网络。但它的最大缺点是在大多数可用的实现中处理时间很长。RAPIDS 现在基于 CannyLab 开发的基于 GPU 的 Barnes-Hut 方法,提供了 GPU 加速的快速 TSNE。RAPIDS 的 cuML 机器学习库中的 TSNE 的运行速度比相应的 CPU 实施快 2,000 倍,并且比当前 GPU 版本使用的 GPU 内存少 30%。一名名为 Daniel Han-Chen 的机器学习爱好者在其博客介绍了一些相关用例示例,然后将 cuML 的 GPU TSNE 实现与 scikit-learn 进行比较的基准测试。最后,他详细解释了 TSNE 的工作方式以及如何在 cuML 中对其进行优化以在 GPU 上运行。
登录
后评论
暂无评论~
登录
去登录
文章库
PRO会员通讯
SOTA!模型
AI 好好用
文章库
PRO通讯会员
SOTA!模型
AI 好好用
登录