文章库
PRO通讯会员
SOTA!模型
AI 好好用
登录
AI每日精选
AI每日精选10条
大公司新闻
百度大脑发布“AI开发者‘战疫’守护计划”
2月6日消息,面对新冠肺炎疫情,AI开发者们正在积极运用算法、算力、软件等“武器”助力抗疫。针对开发者们在疫情防控期间的开发与学习需求,百度大脑今日推出“AI开发者‘战疫’守护计划”, 正在进行疫情防控相关应用开发、或疫情期间有需要的企业、机构和开发者,都可以通过该计划获得免费的技术服务和线上AI培训课程。 据了解,百度大脑“AI开发者‘战疫’守护计划”将为开发者提供免费技术服务和免费线上课程两大支持,希望能基于百度大脑AI开放平台和飞桨深度学习平台,更好地实现数据、算法、算力等资源的共享,激发开发者的创造力,汇聚AI开源开放的社区力量助力抗疫。同时,也通过免费开放100个课时的AI线上课程,帮助开发者在抗疫期间持续学习,蓄积知识力量。
京东智能疫情助理开通当天日访问量达到25万
京东方面表示,2月4日,武汉市政府专线正式开通了京东云与AI智能疫情助理,在开通当天,该服务的日访问量就达到25万。武汉市广大市民只需进入武汉政府专线,在疫情应对栏找到智能疫情助理,即可获得京东“智能疫情助理”产品的相关咨询服务。智能疫情助理可通过问题预判、意图反问、分类识别、相似度匹配等方法探索出用户意图,并结合新近疫情咨询,予以内容回复
马斯克:特斯拉Autopilot将能监测路上坑洞并形成迷你地图标记
据外媒报道,特斯拉首席执行官伊隆-马斯克最近声称,特斯拉的自动驾驶仪Autopilot将能够监测路上的坑洞,并制作迷你地图来标记它们。特斯拉一直试图将Autopilot打造成完全自动驾驶系统。要实现这一点,该系统必须能够处理各种不同的场景,包括不同的天气和路况。
Uber获加州批准,将重启无人驾驶测试
Uber获得批准,允许在加州重启无人驾驶测试项目,汽车将会配备备用司机。周三时,加州车辆管理局向Uber旗下无人驾驶部门Uber Advanced Technologies发放许可证。Uber称,暂时没有计划在加州测试无人驾驶汽车,如果真准备这样做,会通知相关监管机构。(新浪科技)
谷歌要求面部识别初创公司 Clearview AI 停止抓取其数据库照片
继 Twitter 之后,谷歌以及 YouTube 成为向 Clearview AI 发送停止通知函的最新公司。ClearviewAI 是一家备受争议的面部识别程序的创业公司,该程序在北美有 600 多个警察部门使用。今年早些时候,当《纽约时报》显示该公司已经在互联网上刮擦数十亿张图像以建立人脸数据库时,Clearview 受到了审查。Google 要求 Clearview 停止抓取其数据库的 YouTube 视频,并删除已收集的任何照片。(Engadget)
产品与应用
AI系统可智能诊断新冠肺炎CT影像,已在上海多家医院投用
首款智能评估新冠肺炎的AI影像系统陆续在上海市公共卫生临床中心、上海市第七人民医院投用,还将在武汉等疫情核心区多家医院上线。2月6日,上海市公共卫生临床中心副院长施裕新表示,经过初步测试,这套系统对新冠肺炎的检测准确率与专家诊断基本吻合。目前,利用这套AI系统2-3秒之内就能完成定量分析,极大提升了分析效率。(澎湃)
新人工智能工具可用于预测宇宙结构
望远镜的进步使研究人员能够更详细地研究宇宙,并建立可同时解释各种观测事实的标准宇宙学模型。但是宇宙的大部分由暗物质和未知性质的暗能量组成,研究人员还有很多事情未能了解。解决这些奥秘的一种有希望的途径是研究宇宙的结构。京都大学汤河理论物理研究所副教授 Takahiro Nishimichi 和卡夫里宇宙物理与数学研究所(Kavli IPMU)的首席研究员 Masahiro Takada 等研究人员团队使用了世界上最快的天体模拟超级计算机 ATERUI 和 ATERUI II 开发黑暗模拟器。这一工具利用机器学习,通过改变宇宙的几个重要特征—例如暗物质和暗能量的特征—创建了数百个虚拟宇宙。将模拟器用于世界上最大的几次观测性调查所记录的数据上,使研究人员能够研究关于宇宙结构起源以及暗物质分布可能随时间变化的可能性。
研究与技术
Facebook AI:使用「放射性数据」来检测数据集是否曾用于训练
Facebook AI 本周三宣布其开发了一种新技术来标记数据集中的图像,以便研究人员可以确定是否过往研究已使用这些图像训练了特定的机器学习模型。这可以帮助研究人员和工程师跟踪用于训练模型的数据集,以便他们可以更好地了解各种数据集如何影响不同神经网络的性能。他们将这种新的验证方法称为「放射性」数据,因为它类似于在医学中使用放射性标记物。他们引入了无害且对模型的分类准确性没有影响的独特标记,但是这些标记在学习过程中始终存在,并且在神经网络中具有很高的置信度。
Google AI推出ML-fairness-gym,旨在探索机器学习系统的长期影响
随着越来越多行业和应用案例使用机器学习系统来辅助高影响力的决策,了解此类系统是否公平至关重要,而且全面考虑需要了解模型的短期和长期影响。评估机器学习系统公平性的常用方法包括针对系统的各种输入评估静态数据集的错误度量上的差异。实际上,许多现有的 ML 公平性工具包(例如 AIF360、fairlearn、公平性指标、公平性比较)都提供了用于对现有数据集执行基于错误度量的分析的工具。虽然这种分析可能适用于简单环境中的系统,但在特定情况下算法运行的上下文对于理解其影响至关重要。在这些情况下,与基于错误度量的技术相比,理想情况下分析算法决策的公平性时应更加考虑环境和时间纳入考量背景。为此,Google AI 周三发布了 ML-fairness-gym—一组用于构建简单模拟的组件—用于探索在社会环境中部署基于机器学习的决策系统的潜在长期影响。这一成果已发布在题为《公平不是一成不变的:通过模拟研究更深入地了解长期公平性》的论文中。
新算法可以发现因果关系并应用于医疗 AI 中
英国数字医疗服务提供商 Babylon Health 的研究人员 Anish Dhir 和 CiaránLee 最近提出了一种用于发现不同数据集之间因果关系的技术,这一技术能挖掘未开发医学数据的大型数据库的原因和结果、并可能发现新的因果关系。Babylon 提供了一个基于聊天机器人的应用程序,该应用程序要求用户列出症状,然后可以做出初步诊断和治疗建议—目的之一是筛选出不需要看医生的人。原则上,该服务可以节省患者和医生的时间,但是也有批评指出它可能会漏掉严重疾病的迹象。而此次该公司关于因果关系的新研究将出现在本周于纽约举行的 AAAI 会议上—该技术或可以改善 Babylon Health 提供的服务。(MIT Technology Review)
登录
后评论
暂无评论~
登录
去登录
文章库
PRO会员通讯
SOTA!模型
AI 好好用
文章库
PRO通讯会员
SOTA!模型
AI 好好用
登录