前言

  随着互联网和移动通信技术的快速发展和普及应用,文本数据挖掘技术备受关注,尤其随着云计算、大数据和深度学习等一系列新技术的广泛使用,文本挖掘技术已经在众多领域(如舆情分析、医疗和金融数据分析等)发挥了重要作用,表现出广阔的应用前景。

  虽然十多年前我就指导博士生开展文本分类和自动文摘等相关技术的研究,但对文本数据挖掘的整体概念并没有一个清晰的认识,只是将研究的单项技术视为自然语言处理的具体应用。韩家炜教授主笔的《数据挖掘 ——概念与技术》和刘兵教授撰写的“Web Data Mining”等专著曾让我大获裨益,每次聆听他们的学术报告和与他们当面交谈也都受益匪浅。促使我萌生撰写这部专著念头的是中国科学院大学让我开设的“文本数据挖掘”课程。2015年底我接受中国科学院大学计算机与控制学院的邀请,开始准备“文本数据挖掘”课程的内容设计和课件编写工作,我不得不静下心来查阅大量的文献资料,认真思考这一术语所蕴藏的丰富内涵和外延,经过几年的学习、思考和教学实践,文本数据挖掘的概念轮廓渐渐清晰起来。

  夏睿和张家俊两位青年才俊的加盟让我萌生的写作计划得以实现。夏睿于 2007年硕士毕业,以优异成绩考入中科院自动化所跟随我攻读博士学位,从事情感文本分析研究,在情感分析和观点挖掘领域以第一作者身份在国际一流学术期刊和会议上发表了一系列有影响力的论文。此外,他在文本分类与聚类、主题模型、话题检测与跟踪等多个领域都颇有见地。张家俊于 2006年本科毕业后被免试推荐到中科院自动化所跟随我攻读博士学位,主要从事机器翻译研究,之后在多语言自动摘要、信息获取和人机对话等多个研究方向都有出色的表现。自 2016年起他同我一道在中国科学院大学讲授“自然语言处理”课程的机器翻译、自动文摘和文本分类等部分内容,颇受学生的欢迎。仰仗两位弟子扎实的理论功底和敏锐的科研悟性,很多最新的技术方法和研究成果能够得到及时的验证和实践,并被收入本书,使我倍感欣慰。

从2016年初到2019年6月这本书的中文版出版,历时三年多。在这三年里,我们大部分的假期、周末和其他业余时间都用来写这本书了。所花费的时间和精力及其感受到的快乐和烦恼难以言表,正所谓“痛并快乐着”。我们在2019年下半年开始将中文版翻译成英文。一些最近的主题,包括BERT(来自转换器的双向编码器表示),已经添加到英文版本中。文本数据挖掘作为自然语言处理和机器学习的交叉领域,面临着这两个领域的双重挑战,在互联网和移动通信设备上有着广泛的应用。本书中提出的主题和技术都是开发这种实用系统所需的技术基础,并在近年来引起了很大的注意。希望本书能对相关领域的学生、教授和研究人员提供一个全面的了解。但是,我必须承认,由于作者的能力和知识的广度的限制,以及时间和精力的缺乏,书中肯定会有一些遗漏或错误。我们将非常感谢读者提供批评、纠正和任何建议。

宗成庆

2020年5月20日 北京

地址:

https://link.springer.com/book/10.1007/978-981-16-0100-2

内容简介

本书阐述文本数据挖掘的理论模型、实现算法和相关应用,主要内容包括:信息抽取和知识库构建、文本聚类、情感文本分析、热点发现、生物医学文本挖掘和多文档自动摘要等。写作风格力求言简意赅,深入浅出,通过实例说明实现相关任务的理论方法和技术思路,而不过多地涉及实现细节。这本书讨论了文本数据挖掘的各个方面。与其他专注于机器学习或数据库的书籍不同,它从自然语言处理(NLP)的角度进行文本数据挖掘。本书详细介绍了文本数据挖掘的基本理论和方法,从预处理(中英文文本)、文本表示和特征选择,到文本分类和文本聚类。文中还介绍了文本数据挖掘的主要应用,如主题建模、情感分析和意见挖掘、主题检测和跟踪、信息提取和自动文本摘要等。它将所有相关的概念和算法结合在一起,提供了一个全面、权威和连贯的概述。本书可作为大学高年级本科生或研究生从事相关研究的入门文献,也可作为从事相关技术研发的开发人员的参考资料。

作者简介

  宗成庆,中国科学院自动化研究所研究员、博士生导师,中国科学院大学岗位教授。主要从事自然语言处理、机器翻译、人机对话系统和文本数据挖掘等相关研究,主持国家项目10余项,现任国家重点研发计划重点专项首席科学家,发表论文200余篇,出版《统计自然语言处理》和《文本数据挖掘》等多部专著和译著。2013年当选国际计算语言学委员会(ICCL)委员,现任亚洲自然语言处理学会(AFNLP)主席、中国中文信息学会副理事长。他是学术期刊ACM TALLIP副主编、《自动化学报》副主编和IEEE Intelligent Systems编委等,曾任国际一流学术会议ACL-IJCNLP'2015 和 COLING'2020 程序委员会主席,4次担任 AAAI 和 IJCAI 领域主席。曾获国家科技进步奖二等奖、中国中文信息学会“钱伟长中文信息处理科学技术奖”一等奖、新疆维吾尔自治区科技进步奖二等奖等。荣获北京市优秀教师、中国科学院优秀导师和宝钢优秀教师等荣誉称号。享受国务院政府特殊津贴。

夏睿,南京理工大学教授,他在自然语言处理和文本数据挖掘领域的高质量期刊和顶级会议上发表了50多篇论文。他担任多个顶级会议的区域主席和高级项目委员会成员,如EMNLP, COLING, IJCAI, AAAI。他于2020年获得了ACL 2019优秀论文奖、江苏省自然科学基金杰出青年学者奖。

张家俊,中国科学院自动化研究所模式识别国家重点实验室研究员、博士生导师,智源青年科学家,研究方向为机器翻译和自然语言处理等。

成为VIP会员查看完整内容
0
74
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

这新版本的教科书/参考提供了从工程的角度对概率图模型(PGMs)的介绍。它提供了关于马尔科夫决策过程、图模型和深度学习的新材料,以及更多的练习。

这本书涵盖了PGM的每个主要类的基础知识,包括表示、推理和学习原理,并回顾了每种类型的模型的实际应用。这些应用来自广泛的学科,突出了贝叶斯分类器、隐藏马尔可夫模型、贝叶斯网络、动态和时间贝叶斯网络、马尔可夫随机场、影响图和马尔可夫决策过程的许多使用。

概率图模型(PGMs)及其在不确定性下进行智能推理的应用出现于20世纪80年代的统计和人工智能推理领域。人工智能的不确定性(UAI)会议成为这一蓬勃发展的研究领域的首要论坛。20岁的时候,我在圣何塞的UAI-92大学第一次见到了恩里克·苏卡——我们都是研究生——在那里,他展示了他关于高层次视觉推理的关系和时间模型的研究成果。在过去的25年里,Enrique对我们的领域做出了令人印象深刻的研究贡献,从客观概率的基础工作,到开发时态和事件贝叶斯网络等高级形式的PGMS,再到PGMS的学习,例如,他的最新研究成果是用于多维分类的贝叶斯链分类器。

概率图模型作为一种强大而成熟的不确定性推理技术已被广泛接受。与早期专家系统中采用的一些特殊方法不同,PGM基于图和概率论的强大数学基础。它们可用于广泛的推理任务,包括预测、监测、诊断、风险评估和决策。在开源软件和商业软件中有许多有效的推理和学习算法。此外,它们的力量和功效已通过其成功应用于大量现实世界的问题领域而得到证明。Enrique Sucar是PGM作为实用和有用技术建立的主要贡献者,他的工作跨越了广泛的应用领域。这些领域包括医学、康复和护理、机器人和视觉、教育、可靠性分析以及从石油生产到发电厂的工业应用。

成为VIP会员查看完整内容
0
58

日前,由深圳市人工智能行业协会编写的《2021人工智能发展白皮书》(以下简称:白皮书)在第二届深圳国际人工智能展重磅发布。

白皮书是深圳市人工智能行业协会在数据收集、学术研究、市场调研的基础上,就人工智能制度、行业、技术、应用等方面进行了深入研究,秉持科学客观的态度制作而成。白皮书由六大部分组成,分别为概念篇,制度篇,行业篇、技术篇、趋势篇。

白皮书指出,人工智能是引领未来的战略性技术,正在对经济发展、社会进步和人类生活产生深远影响。各个国家均在战略层面上予以高度关注,科研机构大量涌现,科技巨头大力布局,新兴企业迅速崛起,人工智能技术开始广泛应用于各行各业,展现出可观的商业价值和巨大的发展潜力。

根据白皮书显示,2020年,中国人工智能核心产业规模达到3251亿元,同比增长16.7%;人工智能领域融资金额为896.2亿元,融资数量有467笔,人工智能领域单笔融资额达到1.9亿元,同比增长56.3%。截至2020年底,中国人工智能相关企业数量达到6425家;其中,22.3%的企业分布在人工智能产业链基础层,18.6%的企业分布在技术层,59.1%的企业分布在应用层。

成为VIP会员查看完整内容
0
56

本书提供了分布式优化、博弈和学习的基本理论。它包括那些直接从事优化工作的人,以及许多其他问题,如时变拓扑、通信延迟、等式或不等式约束,以及随机投影。本书适用于在动态经济调度、需求响应管理和智能电网插电式混合动力汽车路由等领域使用分布式优化、博弈和学习理论的研究人员和工程师。

无线技术和计算能力的进步使得理论、模型和工具的发展成为必要,以应对网络上大规模控制和优化问题带来的新挑战。经典的优化方法是在所有问题数据都可用于集中式服务器的前提下工作的。然而,这一前提不适用于由电力系统、传感器网络、智能建筑和智能制造等应用驱动的分布式环境中的大型网络系统。在这样的环境中,每个节点(agent)根据自己的数据(信息)以及通过底层通信网络从相邻的agent接收到的信息进行本地计算,从而分布式地解决大规模控制和优化问题。最终,集中式优化方法必然会走向衰落,从而产生一种新的分布式优化类型,它考虑了多个agent之间的有效协调,即所有agent共同协作,使一个局部目标函数之和的全局函数最小化。

本书研究了近年来分布式优化问题中的几个标准热点问题,如无约束优化、有约束优化、分布式博弈和分布式/分散学习等。为了强调分布式优化在这些主题中的作用,我们将重点放在一个简单的原始(次)梯度方法上,但我们也提供了网络中其他分布式优化方法的概述。介绍了分布式优化框架在电力系统控制中的应用。这本书自然主要包括三个部分。第一部分讨论了分布式优化算法理论,共分为四章:(1)多智能体时滞网络中的协同分布式优化;(2)时变拓扑多智能体系统的约束一致性;(3)不等式约束和随机投影下的分布式优化;(4)随机矩阵有向图上的加速分布优化。第二部分作为过渡,研究了分布式优化算法理论及其在智能电网动态经济调度问题中的应用,包括两章:(5)时变有向图约束优化的线性收敛性;(6)时变有向图上经济调度的随机梯度推动。第三部分对分布式优化、博弈和学习算法理论进行了分析和综合,本部分所有算法都是针对智能电网系统内的特定案例场景设计的。本部分共分三章:(7)智能微电网能源交易博弈中的强化学习;(8)不完全信息约束博弈的强化学习;(9)基于拥塞博弈的插电式混合动力汽车路径选择强化学习。其中,给出了仿真结果和实际应用实例,以说明前面提出的优化算法、博弈算法和学习算法的有效性和实用性。

成为VIP会员查看完整内容
0
51

本教程介绍在图神经网络(GNN)中使用的概念。GNN是建模数据的有用方法,这些数据被构造成图形或包含不同实体之间的有用关系。这些方法已成功应用于交通预测、分子建模、社会网络分析、视觉场景理解等多个领域。

教程将集中在介绍概念和展示基本方法,同时也呈现一些有趣的联系和应用。

这两个讲座是Bitdefender在布加勒斯特大学教授的深度学习课程的一部分。演讲将是虚拟在线的,对任何人开放,并要求基本的ML知识。

成为VIP会员查看完整内容
0
47

本书通过有监督、无监督和高级学习技术提供了对机器学习算法的概念理解。本书包括四个部分:基础、监督学习、非监督学习和高级学习。第一部分提供了基础材料、背景和简单的机器学习算法,为学习机器学习算法做准备。第二部分和第三部分提供了对监督学习算法和作为核心部分的无监督学习算法的理解。最后一部分提供了先进的机器学习算法:集成学习、半监督学习、时序学习和强化学习。

提供两种学习算法的全面覆盖: 监督和无监督学习; 概述用于解决分类、回归和聚类的计算范例; 具有构建新一代机器学习的基本技术。

这本书是关于机器学习的概念,理论和算法。在第一部分中,我们通过探索学习理论、评估方案和简单的机器学习算法,提供了关于机器学习的基本知识。在第二和第三部分中,我们将监督学习算法描述为分类和回归任务的方法,而无监督学习算法描述为聚类任务的方法。在第四部分,我们讨论了特殊类型的学习算法,并将监督算法和非监督算法的混合作为进一步的研究。读者需要线性代数和向量微积分的基本知识来理解机器学习算法,其中输入数据总是以数字向量的形式给出。

成为VIP会员查看完整内容
0
47

2021年,CHI将首次来到日本,在东京西南方的横滨市举行。ACM (Association for Computing Machinery)CHI(计算系统人类因素会议)是人机交互领域最重要的国际会议。CHI(读作“kai”)是世界各地研究者和实践者齐聚一堂,探讨交互技术最新进展的地方。CHI被普遍推崇为人机交互领域最具声望的殿堂,每年吸引数千名国际参会者。

人工智能(AI)技术越来越多地用于在医疗保健、金融和就业等关键领域做出决策和执行自主任务。为了改进、竞争、建立适当的信任和更好地与人工智能系统交互,需要了解人工智能,这激发了学术界和公众对可解释人工智能(XAI)的极大兴趣。一方面,快速增长的XAI技术集合允许在AI系统中合并不同的解释风格。另一方面,通过人工智能解释来提供令人满意的用户体验需要以用户为中心的方法和跨学科研究来连接用户需求和技术支持。简而言之,XAI是一个对HCI研究有着日益增长的需求和令人兴奋的机会的领域。

本教程面向有志于开发和设计人工智能系统解释功能的研究人员和实践者,以及那些希望了解XAI文献中的趋势和核心主题的人。该课程将介绍一些可用的工具包,这些工具包有助于轻松地创建ML模型的解释,包括AIX 360[1],这是一个全面的工具包,提供有关该主题的技术和教育资源,如XAI概念介绍、python代码库和教程。

我们也将借鉴我们自己的设计和研究XAI系统的经验[3-8],以及从工业设计从业者[2]学习,讨论机会和挑战,把最先进的XAI技术融入AI系统,创造好的XAI用户体验,包括我们通过研究开发的“问题驱动的XAI设计流程”[9]。

https://hcixaitutorial.github.io/

  • 什么是可解释AI (XAI)?
  • XAI解决了哪些问题? XAI在不同研究领域(如机器学习、人机交互)的工作重点是什么?
  • 为什么XAI很重要?
  • XAI的动机是什么?XAI是负责任的人工智能的基础?
  • 如何解释人工智能?
  • XAI最先进的技术是什么?
  • 如何设计XAI用户体验?
  • XAI用户体验的设计方法和指导方针是什么?设计上的挑战是什么?探索了哪些解决方案?
  • XAI从哪里开始呢?
  • 在哪里可以找到实现XAI技术和设计XAI UX的相关资源?

参考文献:

[1] Arya, V., Bellamy, R. K., Chen, P. Y., Dhurandhar, A., Hind, M., Hoffman, S. C., … & Mourad, S. (2019). One explanation does not fit all: A toolkit and taxonomy of ai explainability techniques.

[2] Liao, Q. V., Gruen, D., & Miller, S. (2020). Questioning the AI: Informing Design Practices for Explainable AI User Experiences. CHI 2020

[3] Dodge, J., Liao, Q. V., Zhang, Y., Bellamy, R. K., & Dugan, C (2019). Explaining models: an empirical study of how explanations impact fairness judgmen. IUI 2019

[4] Zhang, Y., Liao, Q. V., & Bellamy, R. K. (2019). ffect of confidence and explanation on accuracy and trust calibration in ai-assisted decision making. . FAT* 2020

[5] Ghai, B., Liao, Q. V., Zhang, Y., Bellamy, R., & Mueller, K. (2021). Explainable Active Learning (XAL) Toward AI Explanations as Interfaces for Machine Teachers. CSCW 2021

[7] Narkar, S., Zhang, Y., Liao, Q. V., Wang, D., & Weisz, J. D. Model LineUpper: Supporting Interactive Model Comparison at Multiple Levels for AutoML. IUI 2021

[8] Ehsan, U., Liao, Q. V., Muller, M., Riedl, M. O., & Weisz, J. D. (2021). Expanding Explainability: Towards Social Transparency in AI systems. CHI 2021

[9] Liao, Q. V., Pribić, M., Han, J., Miller, S., & Sow, D. (2021). Question-Driven Design Process for Explainable AI User Experiences. Working Paper

成为VIP会员查看完整内容
0
47

摘要

Transformers 在自然语言处理、计算机视觉和音频处理等许多人工智能领域都取得了巨大的成功。因此,自然会引起学术界和工业界研究人员的极大兴趣。到目前为止,各种各样的Transformer变种(即X-formers)已经被提出,但是,关于这些Transformer器变种的系统和全面的文献综述仍然缺乏。在这项综述中,我们提供了一个全面的Transformer综述。我们首先简单介绍了普通的Transformer,然后提出了一个x-former的新分类。接下来,我们将从三个方面介绍不同的x -former架构修改,预训练和应用。最后,展望了未来的研究方向。

https://www.zhuanzhi.ai/paper/f03a47eb6ddb5d23c07f51662f3220a0

引言

Transformer[136]是一种出色的深度学习模型,被广泛应用于自然语言处理(NLP)、计算机视觉(CV)和语音处理等各个领域。Transformer最初是作为一种用于机器翻译的序列到序列模型提出的[129]。后来的工作表明,基于Transformer的预训练模型(PTMs)[100]可以在各种任务上实现最先进的性能。因此,Transformer已经成为NLP的首选架构,特别是对于PTMs。除了语言相关的应用,Transformer也被应用于CV[13, 33, 94],音频处理[15,31,41],甚至其他学科,如化学[113]和生命科学[109]。

由于成功,各种各样的Transformer 变种(即x -former)在过去几年里被提出。这些X-formers从不同的角度改进了vanilla Transformer。

(1) 模型的效率。应用Transformer的一个关键挑战是它在处理长序列时效率低下,这主要是由于自注意力模块的计算和存储复杂性。改进方法包括轻量级注意力(例如稀疏注意变体)和分治法(例如循环和分层机制)。

(2) 模型泛化。由于Transformer是一种灵活的体系结构,并且很少对输入数据的结构偏差进行假设,因此很难对小规模数据进行训练。改进方法包括引入结构偏差或正则化、对大规模无标记数据进行预处理等。

(3) 模型的适应。该工作旨在使Transformer适应特定的下游任务和应用程序。

在这个综述中,我们的目的是提供一个Transformer及其变体的全面综述。虽然我们可以根据上面提到的观点来组织x-former,但许多现有的x前辈可能会解决一个或几个问题。例如,稀疏注意变量不仅降低了计算复杂度,而且在输入数据上引入了结构先验,缓解了小数据集上的过拟合问题。因此,将现有的各种X-formers进行分类,并根据它们改进Transformer的方式提出新的分类方法会更有条理: 架构修改、预训练和应用。考虑到本次综述的受众可能来自不同的领域,我们主要关注于一般的架构变体,而只是简单地讨论了预训练和应用的具体变体。

到目前为止,基于普通Transformer的各种模型已经从三个角度被提出:架构修改的类型、预训练的方法和应用。图2给出了Transformer变种的分类说明。

尽管“x-formers”已经证明了他们在各种任务上的能力,但挑战仍然存在。除了目前关注的问题(如效率和泛化),Transformer的进一步改进可能在以下几个方向:

(1) 理论分析。Transformer的体系结构已被证明能够支持具有足够参数的大规模训练数据集。许多工作表明,Transformer比CNN和RNN有更大的容量,因此有能力处理大量的训练数据。当Transformer在足够的数据上进行训练时,它通常比CNN或RNN有更好的性能。一个直观的解释是,Transformer对数据结构没有什么预先假设,因此比CNN和RNN更灵活。然而,理论原因尚不明确,我们需要对Transformer能力进行一些理论分析。

(2) 注意力机制之外的全局交互机制更加完善。Transformer的一个主要优点是使用注意力机制来建模输入数据中节点之间的全局依赖关系。然而,许多研究表明,对大多数节点来说,完全注意力是不必要的。在某种程度上,不可区分地计算所有节点的注意力是低效的。因此,在有效地建模全局交互方面仍有很大的改进空间。一方面,自注意力模块可以看作是一个具有动态连接权的全连接神经网络,通过动态路由聚合非局部信息; 因此,其他动态路由机制是值得探索的替代方法。另一方面,全局交互也可以通过其他类型的神经网络来建模,比如记忆增强模型。

(3) 多模态数据统一框架。在许多应用场景中,集成多模态数据对于提高任务性能是非常有用和必要的。此外,一般的人工智能还需要能够捕获跨不同模式的语义关系。由于Transformer在文本、图像、视频和音频方面取得了巨大的成功,我们有机会建立一个统一的框架,更好地捕捉多模态数据之间的内在联系。但是,在设计中对模式内和模式间的注意还有待改进。

成为VIP会员查看完整内容
0
41

本课程的目标(以及本教材的目标)是为最广泛使用的学习架构介绍学习理论的新旧结果。本课程面向以理论为导向的学生,以及希望对机器学习和相关领域(如计算机视觉或自然语言处理等学习方法的大量用户)中使用的算法有基本数学理解的学生。我们将特别努力去证明许多来自第一性原理的结果,同时保持阐述尽可能简单。这将自然地导致一个关键结果的选择,以简单但相关的实例展示学习理论中的重要概念。一些一般的结果也将在没有证明的情况下给出。当然,第一性原理的概念是主观的,我将假定你对线性代数、概率论和微积分有很好的了解。此外,我将重点关注在实践中可以运行的算法之外不存在的学习理论部分,因此本书中描述的所有算法框架都是常规使用的。对于大多数学习方法,一些简单的说明性实验被提出,并计划有伴随的代码(Matlab, Julia和Python),这样学生就可以自己看到算法是简单和有效的综合实验。

https://www.di.ens.fr/~fbach/

成为VIP会员查看完整内容
0
38

将机器学习(ML)和深度学习(DL)结合在金融交易中,重点放在投资管理上。这本书解释了投资组合管理、风险分析和绩效分析的系统方法,包括使用数据科学程序的预测分析。

本书介绍了模式识别和未来价格预测对时间序列分析模型的影响,如自回归综合移动平均模型(ARIMA),季节ARIMA (SARIMA)模型和加性模型,包括最小二乘模型和长期短期记忆(LSTM)模型。运用高斯隐马尔可夫模型提出了隐模式识别和市场状态预测。这本书涵盖了K-Means模型在股票聚类中的实际应用。建立了方差协方差法和模拟法(蒙特卡罗模拟法)在风险值估算中的实际应用。它还包括使用逻辑斯蒂分类器和多层感知器分类器的市场方向分类。最后,本书介绍了投资组合的绩效和风险分析。

到本书结束时,您应该能够解释算法交易如何工作及其在现实世界中的实际应用,并知道如何应用监督和无监督的ML和DL模型来支持投资决策,并实施和优化投资策略和系统。

你将学习:

了解金融市场和算法交易的基本原理,以及适用于系统性投资组合管理的监督和无监督学习模型

了解特征工程、数据可视化、超参数优化等概念

设计、构建和测试有监督和无监督的ML和DL模型

发现季节性、趋势和市场机制,模拟市场变化和投资策略问题,预测市场方向和价格

以卓越的资产类别构建和优化投资组合,并衡量潜在风险

成为VIP会员查看完整内容
0
37

博弈论对于非专业的定量课程来说是一个很好的话题,因为它发展了数学模型来理解人类在社会、政治和经济环境中的行为。

本文通过丰富的流行文化背景来探讨博弈论的思想。在每一章的末尾,有一节是关于这些概念在流行文化中的应用。它建议以博弈论为主题的电影、电视节目和小说。每个部分的问题都是作为写作作业的论文提示。课程目标。

向学生介绍博弈论的数学知识。 教学生如何使用数学模型来解决社会和经济情况下的问题。 建立学生的定量直觉。 向学生介绍数学构建人类行为的力量。 为学生提供使用代数技术的机会,如线性模型和方程组,在博弈论的应用。 让学生有机会在博弈论中使用概率的基本概念,如期望值

https://nordstromjf.github.io/

成为VIP会员查看完整内容
0
36

利用Python及其标准库中的数值和数学模块,以及流行的开源数值Python包,如NumPy、SciPy、FiPy、matplotlib等。这个完全修订的版本,更新了每个包的最新细节和更改Jupyter项目,演示了如何在大数据,云计算,金融工程,商业管理和更多的数字计算解决方案和数学模型应用。

Numerical Python,第二版,提供了许多使用Python在数据科学和统计中应用的全新案例研究示例,以及对以前的许多示例的扩展。由于Python的语法简单而高级,以及数据分析的多种选项,因此它们都展示了Python在快速开发和探索性计算方面的强大功能。

阅读本书后,读者将熟悉许多计算技术,包括基于数组和符号计算,可视化和数字文件I/O,方程求解,优化,插值和积分,以及领域特定的计算问题,如微分方程求解,数据分析,统计建模和机器学习。

科学和数值计算是研究、工程和分析领域的一个蓬勃发展的领域。在过去的几十年里,计算机行业的革命为计算机从业者提供了新的和强大的工具。这使得前所未有的规模和复杂性的计算工作成为可能。结果,整个领域和行业如雨后春笋般涌现出来。这种发展仍在继续,随着硬件、软件和算法的不断改进,它正在创造新的机会。最终,实现这一运动的技术是近几十年来发展起来的强大的计算硬件。然而,对于计算从业者来说,用于计算工作的软件环境与执行计算的硬件同等重要(如果不是更重要的话)。这本书是关于一个流行的快速增长的数值计算环境:Python编程语言及其用于计算工作的库和扩展的充满活力的生态系统。

计算是一项跨学科的活动,需要理论和实践学科的经验和专业知识:对数学和科学思维的牢固理解是有效计算工作的基本要求。同样重要的是在计算机编程和计算机科学方面的扎实训练。这本书的作用是通过介绍如何使用Python编程语言和围绕该语言出现的计算环境来完成科学计算,从而将这两个主题连接起来。在这本书中,假定读者先前有一些数学和数值方法的训练,以及Python编程的基本知识。这本书的重点是介绍用Python解决计算问题的实用方法。简要介绍的理论涵盖的主题给出在每一章,以介绍符号和提醒读者的基本方法和算法。然而,这本书并不是对数值方法的自洽处理。为了帮助读者以前不熟悉这本书的一些主题,进一步阅读的参考文献在每一章的结尾。同样,没有Python编程经验的读者可能会发现,将这本书和一本专注于Python编程语言本身的书一起阅读会很有用

https://www.programmer-books.com/wp-content/uploads/2019/02/Numerical-Python-2nd-Edition.pdf

成为VIP会员查看完整内容
0
35

这本书的目的是教你像计算机科学家一样思考。这种思维方式结合了数学、工程和自然科学的一些最好的特点。像数学家一样,计算机科学家使用形式语言来表示思想(特别是计算)。就像工程师一样,他们设计东西,将组件组装成系统,并在备选方案中进行权衡。像科学家一样,他们观察复杂系统的行为,形成假设,并测试预测。

计算机科学家最重要的技能是解决问题。解决问题的能力是指组织问题,创造性地思考解决方案,并清晰准确地表达解决方案的能力。事实证明,学习编程的过程是练习解决问题技巧的绝佳机会。这就是为什么这一章叫做,程序之道。

在某种程度上,你将学习编程,这本身就是一项有用的技能。在另一个层面上,您将把编程作为达到目的的一种手段。随着时间的推移,这个目标会越来越清晰。

《如何像计算机科学家一样思考》(How to Think Like a Computer Scientist)已经是目前最好的Python入门书籍了,但我们将其重新出版:

  • 使用在线IDE Replit,而不是向学生展示如何在Windows上设置Python(许多有抱负的程序员都放弃了这一点)。

  • 使展示现代化,并将源代码转换为Markdown,这样读者可以更容易地作出贡献。

  • 使用在线应用程序PythonTutor.com逐步可视化和逐步执行代码。

成为VIP会员查看完整内容
0
35

ICML 2021官方发布接收论文,共有5513篇论文投稿,共有1184篇接受(包括1018篇短论文和166篇长论文),接受率21.48%。

成为VIP会员查看完整内容
0
33

随着数据驱动的机器学习研究的发展,各种各样的预测问题得到了解决。探索如何利用机器学习,特别是深度学习方法来分析医疗数据已经变得至关重要。现有方法的一个主要局限性是专注于网格数据; 然而,生理记录的结构通常是不规则的和无序的,这使得很难把它们作为一个矩阵来概念化。因此,图神经网络通过利用生物系统中的隐式信息,利用边缘连接的交互节点吸引了大量的关注,这些边的权重可以是时间关联或解剖连接。在本综述中,我们全面回顾了不同类型的图架构及其在医疗保健中的应用。我们以系统的方式概述了这些方法,并按照它们的应用领域组织起来,包括功能连接、解剖结构和基于电的分析。我们还概述了现有技术的局限性,并讨论了未来研究的潜在方向。

https://www.zhuanzhi.ai/paper/93391ccf2368809646650183224eee1c

引言

医学诊断是指一个人可以确定哪种疾病或状况可以解释病人的症状的过程。疾病诊断所需的信息来自患者的病史和各种医学测试,这些测试通过诊断成像数据获取患者的功能和解剖结构,如功能磁共振成像(fMRI)、磁共振成像(MRI)、计算机断层扫描(CT)、超声(美国)和X射线; 其他诊断工具包括脑电图(EEG)。然而,考虑到通常耗时的诊断过程容易产生主观解释和观察者间的变异,临床专家已经开始从计算机辅助干预中获益。自动化在医疗保健服务和医生有限的情况下也有好处。自动化正在努力提高医疗保健系统的质量和降低成本[1]。通过将特征工程任务合并到学习任务[2]中,深度学习提供了一个解决这些需求的有效途径。有几篇综述论文分析了传统机器学习和深度学习方法在医学异常和解剖结构检测和分割、运动障碍和序列数据分析、计算机辅助检测和计算机辅助诊断方面的好处。

图网络属于一个新兴领域,它也在许多技术领域产生了巨大的影响。来自化学、生物学、遗传学和医疗保健等学科的许多信息并不适合基于矢量的表示,而是需要复杂的数据结构。图本质上捕获实体之间的关系,因此在这些应用中可能非常有用,可以对变量之间的关系信息进行编码。例如,在医疗保健领域,可以通过在医生的决策过程[7]中将疾病或症状与主题关联起来,或为乳腺癌分析[8]建立RNA序列模型来构建知识图谱。因此,特别将图神经网络(GNN)推广为非结构(无序)和结构(有序)场景。然而,尽管基于图的表示在医学领域的使用越来越普遍,但与传统的深度学习方法相比,此类方法仍然稀缺,而且它们解决许多具有挑战性的医学问题的潜力尚未完全实现。

关于GNNs的深度学习领域迅速增长,其受欢迎程度也反映在最近对图形表示及其应用的大量综述中。现有综述全面概述了非欧氏数据深度学习、图深度学习框架和现有技术的分类[9],[14];或者介绍包括生物学和信号处理领域[15]-[18]的一般应用。尽管一些论文使用深度学习技术概述了医学图像分析,并引入了GNN的概念来评估神经疾病[19],据我们所知,目前还没有系统介绍和讨论GNN在非结构化医学数据中的当前应用。

在本文中,我们致力于提供一个多图神经网络(GNN)模型在医疗诊断和分析方面的全面回顾。我们试图解释为什么GNN在这个领域值得研究的根本原因,并强调了新兴的医疗分析挑战,GNN可以很好地解决。图神经网络在医学信号处理和分析中的应用尚处于起步阶段。在本文中,我们提出了一项综述,将图神经网络应用于医疗诊断任务,并提出了该领域的最新方法和趋势的现状。

  1. 我们确定了传统深度学习在应用于医学信号分析时面临的一些挑战,并强调了了图神经网络在克服这些挑战方面的贡献。

  2. 我们介绍并讨论了为医疗诊断提出的各种图框架及其具体应用。我们涵盖使用图网络与深度学习技术相结合的生物医学成像应用的工作。

  3. 我们总结了当前基于图的深度学习所面临的挑战,并基于目前观察到的趋势和局限性提出了医学健康领域未来的发展方向。

成为VIP会员查看完整内容
0
33

本书通过使用Python的案例研究来探索数据分析和统计的基础知识。这本书将向你展示如何自信地用Python编写代码,以及如何使用各种Python库和函数来分析任何数据集。该代码在Jupyter 笔记本中提出,可以进一步调整和扩展。

这本书分为三个部分——用Python编程,数据分析和可视化,以及统计。首先介绍Python——语法、函数、条件语句、数据类型和不同类型的容器。然后,您将回顾更高级的概念,如正则表达式、文件处理和用Python解决数学问题。

本书的第二部分将介绍用于数据分析的Python库。将有一个介绍性的章节涵盖基本概念和术语,和一个章节的NumPy(科学计算库),NumPy(数据角力库)和可视化库,如Matplotlib和Seaborn。案例研究将包括作为例子,以帮助读者理解一些实际应用的数据分析。

本书的最后几章集中在统计学上,阐明了与数据科学相关的统计学的重要原则。这些主题包括概率、贝叶斯定理、排列和组合、假设检验(方差分析、卡方检验、z检验和t检验),以及Scipy库如何简化涉及统计的繁琐计算。

你会: 进一步提高你的Python编程和分析技能 用Python解决微积分、集合论和代数中的数学问题 使用Python中的各种库来结构化、分析和可视化数据 使用Python进行实际案例研究 回顾基本的统计概念,并使用Scipy库来解决统计方面的问题

成为VIP会员查看完整内容
0
33

由吴恩达与 Kian Katanforoosh 指导的 CS230(深度学习)课程2021开始。

深度学习是人工智能中最受欢迎的技能之一。在CS230课程中,你将学习深度学习的基础,了解如何构建神经网络,以及如何完成一个成功的机器学习项目。你将学习卷积网络、RNNs、LSTM、Adam、Dropout、BatchNorm、Xavier/He初始化等方法。

课程地址:https://web.stanford.edu/class/cs230/

课程简介:深度学习是 AI 领域中最受欢迎的技能之一。这门课程将帮助你学好深度学习。你将学到深度学习的基础,理解如何构建神经网络,并学习如何带领成功的机器学习项目。你将学到卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆网络(LSTM)、Adam 优化器、Dropout 方法、BatchNorm 方法、Xavier/He 初始化方法等。你将在医疗、自动驾驶、手语识别、音乐生成和自然语言处理等领域中进行案例研究。你不仅能掌握理论,还能看到深度学习如何应用到产业中。我们将需要使用 Python 和 TensorFlow 来实现所有的项目,课程中也会教这一部分。完成这门课程后,你将能以创新的方式将深度学习应用到你的工作中。该课程是以翻转课堂的形式教学的。你将先在家里观看 Coursera 视频、完成编程任务以及在线测验,然后来到课堂上做进一步讨论和完成项目。该课程将以开放式的最终项目结束,教学团队会在过程中提供帮助。

成为VIP会员查看完整内容
0
29

PAMI(IEEE Transactions on Pattern Analysis and Machine Intelligence),IEEE模式分析与机器智能汇刊,简称PAMI,是IEEE最重要的学术性汇刊之一。事实上,PAMI有着超高的影响因子(17.730)和排名,被誉为SCI之王。与顶级会议相比,顶级期刊的评议过程更为严格,特别重视工作的创新性和完整性,录取难度和门槛很高。

本期小编挑选了5篇PAMI2021中关于GNN的论文(附论文下载地址)分享给大家~ 包括图池化,ARMA滤波的GNN,GNN的Inductive-Transductive预测, GNN在多标签中的应用和GNN中的受限传播~

论文清单

Topology-Aware Graph Pooling Networks Graph Neural Networks with Convolutional ARMA Filters On Inductive-Transductive Learning with Graph Neural Networks Learning Graph Convolutional Networks for Multi-Label Recognition and Applications Deep Constraint-based Propagation in Graph Neural Networks

1 Topology-Aware Graph Pooling Networks (论文下载地址:https://arxiv.org/abs/2010.09834)

池化操作在计算机视觉和自然语言处理任务中已显示出其有效性。但由于图上没有很好的定义局部性,在图数据上执行池化操作是一个具有挑战性的任务。先前的研究使用全局排名方法对一些重要节点进行采样,但是其中大多数不能合并图拓扑。在这项工作中,我们提出了拓扑感知池化(TAP)层,该层明确考虑了图拓扑。TAP层是一个两阶段的投票过程(local voting、global voting),用于选择图中的更重要的节点。

  • local voting:计算每对节点之间的相似性得分,利用相似性得分来标记每条边,节点的平均相似性分数用作其local voting score,节点越大表示分数越高。

  • global voting:将图拓扑合并到global voting中,权衡整个图中每个节点的重要性。

每个节点的最终排名得分是通过其本地和全局投票得分来计算的。为了在采样图中实现更好的图连通性,在排名分数的计算中考虑了这一点。图连通性将度信息用作偏差项,以鼓励该层选择度高的节点以形成采样图。基于TAP层,设计了可感知拓扑的池化网络,用于网络嵌入学习。图分类任务的结果表明,该方法与现有方法相比具有更好的性能。

2 Graph Neural Networks with Convolutional ARMA Filters (论文下载地址:https://arxiv.org/abs/1901.01343)

大多数图神经网络方法基于多项式谱滤波器在图上实现卷积运算。本文提出了一种新的图卷积层,该图卷积层受auto-regressive moving average(ARMA)滤波器的启发,与polynomial spectral filters相比,该卷积层提供了更灵活的频率响应,对噪声更鲁棒,并且可以更好地捕获全局图结构。我们提出了一种基于递归和分布式的ARMA滤波器的图神经网络实现算法,ARMA layer使用较少的参数捕获全局图结构,从而克服了基于高阶多项式滤波器的GNN的局限性。ARMA过滤器未定位在节点空间中,需要对矩阵求逆。为解决此问题,ARMA层依赖于递归公式,这导致了一种快速且分布式的实现,该实现利用了对张量的有效稀疏运算。滤波器不是在给定的拉普拉斯算子的傅立叶空间中学习的,而是位于节点空间中,并且与基础图结构无关。这使我们的GNN在归纳推理任务的测试阶段可以处理具有未见拓扑结构的图。针对四个下游任务:半监督节点分类,图信号分类,图分类和图回归,进行实验。结果表明,所提出的ARMA层相对于基于多项式滤波器的图神经网络带来了显著改进。

3 On Inductive-Transductive Learning with Graph Neural Networks (论文下载地址:https://link.springer.com/content/pdf/10.1007%2F978-3-319-99978-4.pdf 论文详见第201页)

现实世界许多领域的数据都可以用图的来表示,例如,生物蛋白质网络、神经网络、社交网络等。图可以将一个给定的模式描述为一个由节点和边组成的复杂结构。尽管图具有丰富的表示能力,但大多数机器学习方法都不能直接处理图数据,需要将此类数据转换为一些简单形式,例如,实值向量。这种转换会损失一些有用的信息。图神经网络模型(GNN)能够直接处理图数据,并且对图的类型没有任何限制。原始的GNN模型基于经典的归纳学习,使用训练集来学习参数,进而得到模型。直推式学习采用了一种更直接的方法,即利用不同样本之间的关系来利用标记和未标记的数据,根据模式与训练集中可用实例的关系对模式进行分类。在这种情况下,训练模式可直接用于分类过程,而无需调整参数模型,甚至无需依赖分类规则和模式特征。本文提出了一个混合直推-归纳的GNN模型,展示了这两种学习框架的共同特征。该模型根据群体检测、子图匹配和真实问题(交通流量预测和网络垃圾邮件预测)进行评估,显示出了不错的效果。

4 Learning Graph Convolutional Networks for Multi-Label Recognition and Applications (论文下载地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9369105)

多标签图像识别的任务是预测图像中存在的一组对象标签。由于多个对象通常同时出现在图像中,因此需要对标签依赖性进行建模以提高识别性能。为了捕获和探索此类重要信息,本文提出了基于图卷积网络(GCN)的多标签图像识别模型,其在类上构造有向图,并在类之间传播信息,以学习相互依存的class-level表示。遵循这个想法,论文设计了两个特殊的模型,它们从不同的角度进行多标签分类。在第一个模型中,有关类依赖的先验知识被集成到分类器学习中。具体而言,我们提出了Classifier Learning GCN(C-GCN),以将类级别的语义表示(例如,单词嵌入)映射到inter-class拓扑的分类器中。在第二个模型中,我们将图像的视觉表示分解为一组标签感知的特征,并提出了Prediction Learning GCN(P-GCN),以将特征编码为相互依赖的图像级预测分数。此外,还提出了一种有效的相关矩阵构造方法,以捕获类之间的关系,从而指导类之间的信息传播。通用多标签图像识别的实验结果表明,这两个模型优于其他state-of-the-arts。此外,所提出的方法在一些与多标签分类有关的应用中也具有不错的效果。

  1. Deep Constraint-based Propagation in Graph Neural Networks (论文下载地址:https://arxiv.org/abs/2005.02392)

我们可以用图的形式来表示实际应用中的数据的复杂结构。GNN是Scarselli等人提出的一种针对图数据的模型,是循环神经网络和随机游走模型的扩展。在保持二者特性的基础上扩展了循环神经网络,可以处理多种类型的图,例如,循环图,有向图和无向图,无需任何预处理即可处理以节点为中心的应用。通过迭代扩散过程对图的节点状态进行编码,对于每个训练epoch,GNN的学习过程需要一个迭代扩散机制,直到它收敛到一个稳定的不动点。这是一个多阶段的优化过程,比基于梯度优化的模型更昂贵,更不实用。虽然,迭代过程可以提前停止以加速计算,但这最终限制了GNN学习的局部编码能力,减少了沿每个节点携带的信息图的扩散深度。我们提出了一种新的基于拉格朗日公式的GNN学习机制,其中每个节点与其邻域之间的关系由一组约束表示。找到满足约束条件的节点状态表示是重新考虑上述扩散过程中固定点计算的一种简单方法。我们可以借鉴神经网络中的约束优化工具,以设计出一种完全基于BP的学习方法,其中状态表示以及状态转换和输出函数的权重可以共同优化。

与传统基于拉格朗日的训练方法不同的是,状态转移函数和输出函数都是经典的BP可训练模型,所有的训练实例都共享这些模型,而学习问题的唯一附加变量与图的节点有关。这使我们能够在基于拉格朗日的图扩散公式引入灵活性和添加新变量之间找到一个很好的权衡。我们通过类似于多层计算方法的pipeline of constraints 来计算每个节点的多个表示。每个节点的evolving representation 被视为附加到节点本身的新信息。引入使用该新信息的另一个状态转移函数,约束强制执行一个 parallel diffusion 过程,从而形成节点的另一种表示。这个过程可以重复多次,从而模拟一个深度约束方案,增强了GNN的表示能力。

实验分析表明,所提出的方法在几个基准测试上均优于state-of-the-arts。

成为VIP会员查看完整内容
0
30

引言

深度学习已经实现了广泛的应用,并在近年来变得越来越流行。多模态深度学习的目标是创建可以使用各种模态处理和链接信息的模型。单模态学习虽然得到了广泛的发展,但还不能涵盖人类学习的所有方面。多模态学习有助于更好地理解和分析不同感官参与信息处理的过程。本文着重于多种模态,即图像、视频、文本、音频、身体手势、面部表情和生理信号。本文详细分析了过去和当前的基准方法,并对多模态深度学习应用的最新进展进行了深入研究。提出了多种多模态深度学习应用的细粒度分类,并对不同的应用进行了更深入的阐述。还讨论了这些应用中使用的架构和数据集,以及它们的评估指标。最后,分别对各个领域的主要问题和未来可能的研究方向进行了重点分析。

https://www.zhuanzhi.ai/paper/eaf89268e664a48119b223b0c86a7ed1

概述

机器学习(ML)是近年来研究的热点。它已经在图像识别、多媒体概念检索、社会网络分析、视频推荐、文本挖掘等领域得到了广泛的应用。深度学习(Deep Learning, DL)在这些应用中得到了广泛的应用[117]。计算技术的指数级增长、不可思议的发展和数据可用性促成了DL研究的兴起。DL的成功已经成为解决更复杂的ML问题的一个激励因素。此外,DL的主要优点是它以分层的形式表示,即它可以通过一个通用的学习过程有效地学习。各种新的DL方法已经被开发出来,并在多个应用中显示出令人印象深刻的结果,如视觉数据处理、自然语言处理(NLP)、语音和音频处理,以及许多其他广为人知的应用。多模态深度学习(Multimodal Deep learning, MMDL)是近年来随着深度学习的发展而引起的重要研究方向。

我们对周围事物的体验是多模态的;我们能看到、听到、触摸、闻到和尝到东西。捕获对象的多个方面,以图像、文本、视频、图形、声音等不同媒体形式传递信息。模态指定存储特定类型信息的表示格式。因此,上面提到的各种媒体形式都与模态有关,而这些多模态的共同表示可以定义为multimodal[47]。然而,对人类的全部方面进行建模是不够的。单模态工作更好的地方,方法的进展需要在一个模式。多模态学习表明,当多种感官参与信息处理时,我们能更好地理解和分析。本文着重讨论了各种各样的模态,本文从MMDL的角度探讨了多种模态,包括图像、视频、文本、音频、肢体动作、面部表情和生理信号。MMDL的主要目标是构建一个能够处理来自不同模式的信息并将其关联起来的模型。

人工智能(AI)的未来已经被DL彻底改变。它解决了AI社区中存在多年的几个复杂问题。对于MMDL,快速设计了各种具有不同学习框架的深度架构。机器开发出来了在其他应用领域,如自动驾驶汽车、图像处理、医疗诊断和预测预测等,表现得与人类相似,甚至更好[129]。MMDL的最新进展和发展趋势包括视听语音识别(AVSR)[173]、多模态情感识别[26]、图像和视频字幕[58,89]、视觉问答(VQA)[161]、多媒体检索[134]等.

在本研究中,我们讨论了多模态深度学习的最新进展和趋势。各种DL模型被划分为不同的应用程序组,并使用多种媒体进行了详尽的解释。本文重点介绍了使用图像、音频、视频、文本、身体姿势、面部表情和生理信号等多种形式的应用,并与之前的相关调查进行了比较。提出了一种新的多模式DL应用的细粒度分类方法。此外,还提供了在这些MMDL应用中使用的体系结构、数据集和评估指标的简要讨论。最后,针对每一组应用分别提出了有待解决的研究问题,并详细列出了未来可能的研究方向。我们希望我们提出的分类和研究方向将促进未来多模态深度学习的研究,并有助于更好地理解这一特定领域尚未解决的问题。

成为VIP会员查看完整内容
0
30

对数学感兴趣的学生,他们寻求洞察“这门学科的本质”,他们为了发现这门学科的真正意义而广泛阅读,可能会产生一种合理的印象,那就是严肃的数学是一门严肃的、但遥远的山脉,只有那些献身于探索的人才能到达。他们可能会得出这样的结论:初学者只能通过难以跨越的距离来欣赏它的粗略轮廓。最好的受欢迎者有时能传达出更多的信息——包括最近发展背后的人类故事,以及不同分支和结果以意想不到的方式相互作用的方式;但是,数学的本质仍然是难以捉摸的,他们所描绘的图景不可避免地是一个宽泛的画笔,代替了生活中的数学细节。

这本书采用了不同的方法。我们首先观察到,数学不是一个固定的实体——就像人们可能无意识地从“严峻的山脉”的比喻中推断出来的那样。数学是一个精神世界,是我们集体想象中的一个未完成的工作,它会随着时间急剧增长,其最终范围似乎是不受约束的——没有任何明显的限制。当应用于小细节时,这种无限性也起着相反的作用:我们认为我们已经理解的特征被反复填充或重新解释,以新的方式揭示出越来越精细的微观结构。

我们试图在这些问题中抓住的“数学的本质”大多是隐含的,因此往往留给读者去提取。有时,强调某一特定问题的某些方面或其解决方案似乎是适当的。一些这类评论已经包含在文本中,穿插在问题之间。但在很多情况下,只有在读者努力为自己解决问题后,才能欣赏需要发表的评论或观察。在这种情况下,将观察结果放在正文中可能会有过早泄露秘密的风险。因此,许多重要的观察结果隐藏在解决方案中,或者在许多解决方案后面的注释中。更经常的是,我们选择不作明确的评论,而只是试图以这样一种方式来塑造和归类问题,使问题本身能够无声地传达所要传达的信息。

成为VIP会员查看完整内容
0
28
登录查看的更多。 返回顶部
本周荟萃主题
深度学习
机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。
机器学习
“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。”

——中文维基百科
强化学习
强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。
推荐系统
推荐系统,是指根据用户的习惯、偏好或兴趣,从不断到来的大规模信息中识别满足用户兴趣的信息的过程。推荐推荐任务中的信息往往称为物品(Item)。根据具体应用背景的不同,这些物品可以是新闻、电影、音乐、广告、商品等各种对象。推荐系统利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和产品过程无疑会使淹没在信息过载问题中的消费者不断流失。为了解决这些问题,个性化推荐系统应运而生。个性化推荐系统是建立在海量数据挖掘基础上的一种高级商务智能平台,以帮助电子商务网站为其顾客购物提供完全个性化的决策支持和信息服务。
卷积神经网络
在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。
命名实体识别
命名实体识别(NER)(也称为实体标识,实体组块和实体提取)是信息抽取的子任务,旨在将非结构化文本中提到的命名实体定位和分类为预定义类别,例如人员姓名、地名、机构名、专有名词等。
机器翻译
机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。
计算机视觉
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。
新闻
新闻,是指报纸、电台、电视台、互联网等媒体经常使用的记录与传播信息的 [2] 一种文体,是反映时代的一种文体。新闻概念有广义与狭义之分。广义上:除了发表于报刊、广播、互联网、电视上的评论与专文外的常用文本都属于新闻,包括消息、通讯、特写、速写(有的将速写纳入特写之列)等等; [3] 狭义上:消息是用概括的叙述方式,以较简明扼要的文字,迅速及时地报道附近新近发生的、有价值的事实,使一定人群了解。新闻一般包括标题、导语、主体、背景和结语五部分。前三者是主要部分,后二者是辅助部分。写法以叙述为主兼或有议论、描写、评论等。新闻是包含海量资讯的新闻服务平台,真实反映每时每刻的重要事件。您可以搜索新闻事件、热点话题、人物动态、产品资讯等,快速了解它们的最新进展。
图灵奖
图灵奖(A.M. Turing Award,又译“杜林奖”),由 美国计算机协会(ACM)于1966年设立,又叫“A.M. 图灵奖”,专门奖励那些对计算机事业作出重要贡献的个人。其名称取自计算机科学的先驱、英国科学家 阿兰·麦席森·图灵
Top