在信息时代,对大型复杂数据集进行适当的融合是必要的。仅仅处理几条记录就已经迫使人脑在数据中寻找模式,并形成其整体图景,而不是把现实想象成一组单独的实体,这对处理和分析来说要困难得多。同样,使用适当的方法来减少计算机上的信息过载,不仅可以提高结果的质量,还可以大大减少算法的运行时间。众所周知,依赖于单一信息源的信息系统(例如,从一个传感器收集的测量数据、单一权威决策者的意见、一个且仅有一个机器学习算法的输出、单个社会调查者的回答)往往既不准确也不可靠。聚合理论是一个相对较新的研究领域,尽管古代数学家已经知道并使用各种特定的数据融合方法。自20世纪80年代以来,对聚合函数的研究往往集中在构建和正式的数学分析上,即用不同的方法来总结元素在某个实数区间I=[a, b]的数字列表。这包括不同种类的广义手段、模糊逻辑连接词(t-norms,模糊含义)以及协同学。最近,我们观察到人们对部分有序集合的聚集越来越感兴趣,特别是在序数(语言)尺度上。在面向应用数学的经典聚合理论的开创性专著中,有《聚合函数》:A Guide for Practitioners [49],作者Beliakov, Pradera, and Calvo,以及Grabisch, Marichal, Mesiar, and Pap的聚合函数[230]。我们注意到,聚合理论家所使用的典型数学武器由代数、微积分、秩序和度量理论等已知方法的非常有创意的组合组成(事实上,聚合理论的结果对这些子领域也有很大贡献)。更重要的是,在以下教科书中,对聚集函数的特定子类进行了深入研究:Klement, Mesiar和Pap撰写的《三角形规范》[277],Baczyński和Jayaram的《模糊含义》[18],Bullen的《均值及其不等式手册》[87],以及最近由Beliakov, Bustince和Calvo撰写的《平均函数实用指南》[39]。我们还将提到Torra和Narukawa的书(《建模决策:信息融合和聚合操作符》[449]),这也许是所列作品中最面向计算机科学的作品。然而,在[49]和[39]中也讨论了许多有趣的算法和计算问题。在2013年西班牙潘普洛纳举行的AGOP--聚合算子国际暑期学校会议上,Bernard De Baets教授在他的全体演讲[137]中指出,需要传达关于所谓聚合2.0的研究。当然,聚合2.0的目的不是要取代或在任何方面贬低非常成功和重要的经典聚合领域,而是要吸引研究者关注新的、更复杂的领域,其中大多数领域不使用计算方法是无法正确处理的。从这个角度来看,数据融合工具可以被嵌入到更大、更复杂的信息处理系统中,从而作为其关键组成部分来研究。适当的复杂数据融合已经引起了不同领域的许多研究人员的兴趣,包括计算统计、计算几何、生物信息学、机器学习、模式识别、质量管理、工程、统计、金融、经济等。让我们注意到,它在以下方面起着至关重要的作用: