- 文献综述(或调研报告):
概述
数据协调就是利用数据的冗余性,综合多元统计分析、过程机理建模等,对实际生产过程中已测量的数据进行校正,消除数据中包含的随机误差,并对不 可测变量进行估计,从而保证工厂过程测量结果的准确性和完整性。数据校正技术在工业测量过程中的实施对于工业过程基于测量数据的性能优化、状态监测、效益分析有着重要的意义。数据校正逐渐成为工业过程测量中必不可缺少的环节。
数据协调的优点:
(1)核对数据与模型一致
(2)比对数据比直接测量数据更精确
(3)数据协调是检测、识别和消除严重错误损坏的数据的坚实基础.
数据协调方法相关背景
20世纪 60 年代 Kuehn D R 与 Davidson H 在计算机过程控制的研究中首次提出了数据校正技术的概念,最小二乘法可用于调整原始数据以满足质量平衡和能量平衡。值得注意的是,刚开始建立的模型并没有考虑粗大误差的存在,仅仅涉及数据协调问题。经过多年的突破与发展,数据校正现已成为工业生产过程中一项重要数据处理技术。 Murthy 等人在 1973 年对化学反应器平衡算法进行了研究,令进入和离开化学反应器的各种流量和组分满足化学元素守恒方程,利用拉格朗日乘子法和线性代数进行数据校正计算,其中涉及的约束条件为线性方程。
Mah R S H 等人在 1976 年用图论的方法解决数据校正中未测变量的问题,通过合并未测变量两端的节点形成新的网络图,利用没有未测变量的网络图进行数据协调,把协调后的测量数据放入原网络图中,将未测变量估计出来。揭示了图论法与代数方法在求解数据校正问题上的一致性。同时,也对测量数据粗大误差的侦破进行了研究。 Crowe 等人在数据校正的研究上也做出了很大的贡献,1983 年提出了投影矩阵解决了因未测变量存在而导致矩阵奇异的问题。在线性数据协调的基础上,将投影矩阵应用推广到双线性数据协调中,将非线性问题转化为两个线性问题,通过迭代求解,得到负荷精度的结果。
以上是毕业论文开题文献,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。