0
首页 精品范文 计算机并行处理技术

计算机并行处理技术

时间:2023-09-15 17:30:46

开篇:写作不仅是一种记录,更是一种创造,它让我们能够捕捉那些稍纵即逝的灵感,将它们永久地定格在纸上。下面是小编精心整理的12篇计算机并行处理技术,希望这些内容能成为您创作过程中的良师益友,陪伴您不断探索和进步。

计算机并行处理技术

第1篇

关键词:雷达数据处理;线程级并行;任务级并行;数据局部性

中图分类号:TP301.6 文献标识码:A

1引言

未来战争中的电磁环境将异常复杂,雷达会受到各种形式的欺骗和干扰,产生大量的杂波,并且需要检测的目标日益增多,目标的运动速度越来越快,目标的机动性也越来越灵活[1-2]。上述情况的出现将会大大增加雷达数据处理的运算量,而雷达数据处理系统作为一个实时系统,必须在规定的时间内计算出结果,这对数据处理的计算能力提出了很高的要求。

并行处理技术是提高计算速度最有效的技术之一,通过把求解问题分解为多个可以并行运算的子问题,在多个处理器上同时求解,从而降低解决时间。目前,并行处理已广泛的应用于石油勘探、气象预报、核武器模拟等对计算能力有迫切需求的领域[3],并且在雷达仿真系统、雷达信号处理、多传感器数据融合等方向也有应用[4-6]。

本文将对并行处理技术在雷达数据处理中的应用进行研究,探索并行雷达数据处理设计方法,解决雷达系统中面临的计算能力不足问题。

2并行处理相关工作

2.1并行计算机系统

对称多处理器(symmetric multiprocessor, SMP)并行计算机均采用均匀存储访问结构,如图1(a)所示。共享存储结构提供了一个对用户友好的编程视角,处理器间的通信通过共享存储的方式实现,速度快,其缺点是需要用户保证存储一致性,扩展性较差。

分布式存储结构中每个处理器都有自己独立的内存,本地内存的改变将不会影响到其他的处理器,处理器间通过互联网络进行通信,如图1(b)所示。分布式存储的优点是扩展性好,不需要维护存储一致性,缺点是需要用户显式地进行处理器间通信。

2.3并行计算机编程模型

并行计算机编程模型主要包括共享存储和消息传递两种编程模型[8-9]。

共享存储并行编程模型基于线程级的细粒度并行,主要应用于SMP等共享存储结构的并行计算机。在多个处理器访问共享内存时,需要采用同步机制以保证共享数据的一致性,常用的同步机制有互斥量和信号量。OpenMP是目前比较流行的面向共享存储的并行编程技术。进行循环级并行的应用程序适合采用共享存储编程模型。

3雷达数据处理分析

雷达数据处理系统接收到信号处理送来的点迹,一般按照图2所示流程进行处理[10]。

点迹预处理:把每一个新点迹从目标量测坐标系转换到数据处理所在坐标系。

数据互联:建立当前时刻新点迹与历史数据之间的关系,以确定这些点迹是否来自同一个目标,分为新点迹与旧点迹的互联、新点迹与航迹的互联。典型的数据互联算法有最近邻域法(NNF)和概率数据互联法(PDAF)。最近邻域算法根据对目标状态的预测设置跟踪门(相关波门),判断新点迹是否落入某个跟踪门内,设置相关度,最后选择相关度最高的点航配对。点迹与点迹的互联方法同点航互联。

航迹起始:航迹起始是目标跟踪的第一步,主要包括暂时航迹形成和轨迹确定。

跟踪:对来自目标的新点迹量测值进行处理,以便保持对目标现时状态的估计。目前,经常采用的目标跟踪方法有交互式多模型算法、Jerk模型算法等,滤波算法多使用卡尔曼滤波[10]。交互多模型算法通过多个目标模型的有效组合来实现对目标机动状态的自适应估计[11-12]。

点迹与航迹维护:对每个点迹和航迹进行维护,删除满足条件的点迹和航迹。

4实验结果分析

根据第3节的分析,分别搭建了共享存储并行计算机系统和分布式存储并行计算机系统。

共享存储计算机系统配置为:Intel Xeon W3565 四核处理器,Linux 2.6.32操作系统,6 GB内存,四个处理器核通过处理器内部的互连总线共享内存。分布式存储计算机系统由四个节点组成,每个节点配置为Intel Xeon W3565处理器,Linux 2.6.32操作系统,6 GB内存,千兆以太网卡,节点之间通过千兆以太网交换机进行通信。

在实验中,仿真1500帧数据,模拟2000批目标,每帧数据随机产生20000个杂波点,雷达的探测距离为1000 km,目标和杂波点迹在探测空域均匀分布。

采用任务级并行处理方法时,相邻区域的重叠范围20 km,按照表1中的配置对任务进行分解。

在点迹预处理、航迹起始和跟踪等步骤中,随着任务的分解,运算量线性降低。线程级并行和任务级并行均具有这种特点,因此两种并行方法的执行时间变化情况基本一致。

根据第3节的分析可知,按照探测距离分解任务时,数据互联计算量的降低与任务个数增加成平方关系,而线程级并行方法中数据互联计算量与任务分解个数成线性关系。因此,在数据互联步骤,线程级并行执行时间成线程降低,任务级并行执行时间成平方关系降低,与图7中的统计结果基本一致。

点迹与航迹维护主要是对保存点迹、航迹、点航配对的链表等共享数据进行查找、删除等操作。线程级并行方法中访问共享数据需要采用同步机制,频繁的访问共享数据会导致线程的阻塞。另外,多个线程同时访问内存,竞争激烈,每个线程的访存带宽下降明显,因此线程级并行处理中点迹与航迹维护并行处理的效果不好。

在任务级并行时,每个子任务有独立的内存,不存在访存竞争问题和同步。每个子任务负责部分区域的处理,点迹和航迹链表长度与任务个数成线性关系降低,点航配对链表长度与任务个数呈平方关系下降,因此任务级并行处理中点迹与航迹维护时间降低非常明显。图7中的统计结果与上述分析基本一致。

在任务级并行中增加了综合步骤,当只有一个任务时,不需要综合步骤,多个任务执行时,综合步骤的时间开销占总时间的比例在5%以内,对系统执行时间影响很小。

通过以上为分析可知,按照探测区域进行任务级粗粒度并行处理比线程级的细粒度并行处理效果更好。

5结论

本文通过对雷达数据处理进行分析,提出了两种并行处理方法。第一种方法是对数据处理各步骤中的循环采用多个线程并行处理,属于细粒度并行;第二种方法是根据雷达数据的局部性特征,把雷达探测空域按照径向距离划分成多个部分,由多个子任务并行处理,属于粗粒度并行。实验结果显示,4线程细粒度并行雷达数据处理架构性能接近原来的3倍,4任务粗粒度并行架构性能接近原来的5倍,证明了并行处理技术在雷达数据处理中的有效性。

在线程级并行处理方法中,线程之间同步频繁,访存竞争激烈等原因导致性能有所损失。任务级并行处理方法中同步次数较少,不存在访存竞争问题,并且按照区域分解任务减少了总任务的计算量,性能提高更明显。因此,任务级的粗粒度并行更适合雷达数据处理。

参考文献

[1]康耀红. 数据融合与应用[M]. 西安:西安电子科技大学出版社,1997.

[2]俞志富,吕久明. 基于航迹跟踪的EKF应用研究[J]. 现代防御技术,2007,35(2):113-117.

[3]王志斌,陈 波,万玉发,等. 天气雷达资料实时并行处理方法[J]. 计算机工程,2009,35(23) :255-257.

[4]徐雷,吴嗣亮,李海. 相控阵雷达仿真系统并行计算研究[J]. 北京理工大学学报,2008,28(6):517-520.

[5]何勇,张必银. 多传感器数据融合并行处理方法研究[J]. 舰船电子工程,2011,31(8):56-59.

[6]黄鸿,王秀春. 并行计算机在现代雷达信号处理中的应用[J]. 现代雷达,2004,26(3):25-28.

[7]多核系列教材编写组. 多核程序设计[M]. 北京:清华大学出版社,2007.

[8]陈国良. 并行计算:结构算法编程[M]. 第3版. 北京:高等教育出版社,2011.

[9]RABENSEIFNER, R.Hybrid. MPI/OpenMP Parallel Programming on Clusters of MultiCore SMP Nodes[J]. 17th Euromicro International Conference on Parallel, Distributed and Networkbased Processing, 2009: 427-436.

[10]何友,修建娟,张晶炜,等. 雷达数据处理及应用[M]. 第二版. 北京:电子工业出版社,2009.

第2篇

【关键词】大数据;三维场景;快速可视化;LOD;GPU

1 引言

地理信息系统(Geographic Information System,GIS )是一种采集、存储、管理、分析、显示与应用地理信息的计算机系统,是分析和处理海量地理数据的通用技术。随着人们对GIS行业越来越深入的了解,伴随着计算机软、硬件技术和通信技术高速迅猛的发展,GIS已然渗透进入国民生产的各个行业和国民生活的各个方面。然而传统的GIS技术仍然存在着明显的缺陷,主要表现为它以处理二维信息为主,把连续分布的三维现实世界抽象成二维的数字信息,不能给人以自然界三维空间真实物体身临其境的感受。三维GIS是GIS技术发展的重要领域,是进行全方位、多层次、多要素时空分析的基础,开发结构简单、功能完善的真三维GIS软件是当前GIS研究人员的重要目标。由于空间数据具有的数据量庞大、内容丰富等特点,使得三维GIS中要处理的空间数据量远远超出了当前计算机硬件所能处理的能力,该特点已经成为了三维GIS可视化的制约性因素。

层次细节(Level Of Detail, LOD)思想提供了一个解决庞大数据量与快速可视化问题A方向LOD技术主要是根据人眼的视觉原理,一个物体距离人眼越远,人眼看到该物体的细节也就越少,因此系统就可以将距离观察点较远的物体用较粗粒度的模型来代替,从而在不降低视觉效果的前提下大幅度降低了计算机需要处理的数据量,解决了系统的实时动态显示效果。在同样大小的显示范围内,采用LOD技术可以使数据处理量基本保持不变,这一特性对海量空间数据的实时三维可视化是非常重要的。

近年来,随着计算机图形处理器(Graphic Processing Unit, GPU)的计算能力的提升,极大的提高了计算机图形处理的速度和图形生成的质量。GPU技术的极速发展一方面提高了图形处理的计算速度,另一方面还促使了一些与图形处理相关的硬件技术的进步,比如:具有可编程的像素处理模块和具有顶点处理功能的图形硬件@染管道。在3DGIS可视化方面,LOD模型正朝着与GPU集成的方向发展,建模的方法已经不再是逐个选择某个多边形进行绘制,而是在大量的多边形组中选择一组进行批量绘制,建立适合于现代GPU处理的LOD框架,不再追求尽可能的减少多边形的绘制,只要能达到硬件的绘制要求即可。

本文基于对LOD与GPU技术的研究,设计并实现了一个3DGIS平台,并利用该平台解决了海量空间数据实时三维可视化问题。

2 LOD金字塔构建

本文使用的LOD金字塔模型是基于四叉树结构,以分层分块的方式构建的。利用这种方式组织的金字塔模型具有以下特点:

(1)对于树中任意相邻的层,从上到下,分辨率呈双倍递增关系,这样可以很方便的使用四叉树索引技术进行快速定位。

(2)树中每个节点对应一块区域,这样可以直接提供不同分辨率的数据而无需实时重采样。

在构建金字塔时,首先把原始栅格数据作为金字塔的底层,并对其进行分块,形成底层瓦片矩阵。在底层的基础上,从左下角开始,从左至右、从下到上按每2×2个像素合成一个像素的方法生成像素矩阵,并进行分块,形成上一层瓦片矩阵。

分层分块后的文件命名要能反映出数据所在层数和数据的坐标信息,本文采用如下命名规则:Dataset Name\Level of LOD\FileX\ FileX_FileY.abc,其中,Level of LOD为数据所在金字塔模型的层号,FileX为块的行号,FileY为块的列号。利用该规则可以实现文件名与文件坐标之间的换算。

3 GPU高速并行计算

图形处理器(Graphic Processing Unit,GPU)是一个专门用于图形渲染的微处理器,它可以快速的操作和改变内存以加快输出帧缓存中的图像。

在GPU处理器出现以前,显卡只负责图形渲染的操作,大部分的运算处理都由CPU来实现。在GPU出现以后,主流计算机中的处理器大都包含CPU和GPU,由CPU和GPU协同结合来完成大数据量运算和图形@染的工作。CPU和GPU协调工作,CPU负责处理逻辑性强的事务处理和串行计算,GPU则专注于执行高度线程化的并行处理任务。与CPU相比,GPU在运算能力和存储器带宽上具有明显的优势,它可以通过增加并行处理单元和存储器控制单元的方式来提高计算机的并行处理能力和存储器带宽。与CPU相比,GPU具有很多优势:

(1)高度并行性:GPU具备多个@染管道,能并行处理多个顶点和像素数据,具有很高的并行性;

(2)GPU具有向量运算架构,使得其在处理大规模向量运算时性能更佳;

(3)只读高速缓存:GPU中的缓存是只读的,其主要功能是用于过滤对存储器的请求,减少对显存的访问,这使得它比CPU更适合于流处理计算,处理逻辑分支简单的大规模数据并行任务。

4 3DGIS平台设计与实现

本文结合LOD与GPU技术,通过C++语言,使用Microsoft Visual Studio 2012开发工具开发了一套3DGIS软件平台,其功能设计如图1所示。

如上图所示,配置文件中存储一些系统相关参数,如默认图层等,系统初始化时通过配置文件模块读取配置文件内容并创建默认对象;场景控制模块负责事件监听,并保存事件触发后相关场景参数的修改;数据调度模块使用基于四叉树的瓦片检索算法检索当前场景的可见瓦片,并负责在缓存或服务器中获取数据;渲染模块通过构建地形网格和纹理贴图产生三维场景。测试结果显示,当三维窗口大小为800×600时,平均帧频为24.8帧/秒。

5 结束语

本文利用LOD金字塔与GPU的高度并行计算能力和可编程性解决了3DGIS中大数据量场景的快速可视化的问题,并取得了良好的实验效果。本文的主要创新点是将LOD与GPU两项技术相结合,并成功应用到3DGIS软件的开发中。

系统在实现时,为了明确系统目标,降低编码工作量和数据整理搜集的工作量,仅从局部角度考虑三维GIS的快速可视化,没有像Google地球和NASA的WorldWind那些从全球的角度来实现系统的三维可视化,这也是本文下一步考虑解决问题。

参考文献

[1]陈述彭,鲁学军,周成虎.地理信息系统导论[M].北京:科学出版社,2001.

[2]李青元,林宗坚,李成明.真三MGIS技术研究的现状与发展[J].测绘科学,2000.25(2):47-51.

[3]肖乐斌,钟耳顺,刘纪远,等.三维GIS的基本问题探讨.中国图象图形学报,2001(9).

[4]James HClark,HierarchicalGeometric Models for Visible Surface Algorithms[J].Communieation of ACM, 1976(10).

第3篇

关键词:直连网络;wormhole寻径;死锁的避免和恢复;虚拟通道

中图分类号:TP393文献标识码:A文章编号:1009-3044(2012)03-0558-02

对于大规模问题求解时,要求很高的计算求解的速度,电子技术的发展曾使计算机的运算速度获得惊人的提高,但现在已接近电子传输的物理极限,传统的大型机和向量巨型机由于自身物理因素和工艺水平的限制,在性能上很难进一步达到要求。因此,传统计算机的串行结构是阻碍速度提高的关键因素,并行处理技术就成了进一步提高性能的主要途径。

并行处理技术是并行计算机的关健技术,它涉及的范围很广,包括并行结构、并行算法、并行操作系统、并行语言及其编译系统等,其中并行结构是关键因素。

计算机根据指令流和数据流是单一的还是多个的进行分类,并行处理机可以分为SIMD(单指令流多数据流)和MIMD(多指令流多数据流)两大类。SIMD比较专用,世界上装用的数量并不多,MIMD则应用广泛,发展出多种类型。MIMD可进一步划分为以下五种类型:并行向量处理机(PVP)、对称多处理机(SMP)、大规模并行处理机(MPP)、分布共享存储器(DSM)多处理机、机群系统(COW)。

本文讨论当今较为常用的MPP计算机组成的关键部分――互连网络的结构,并对wormhole寻径技术展开分析和讨论。

1基本术语与性能指标

1.1消息、包和片

消息(Message)是在多计算机系统的处理接点之间传递包含数据和同步消息的信息包。它是一种逻辑单位,可由任意数量的包构成。包(Packet)的长度随协议不同而不同,它是信息传送的最小单位,64-512位。片(Flit)的长度固定,一般为8位。1.2互连网络技术指标

互连网络用来在多计算机系统的处理结点之间传递消息。互连网络性能的两个重要指标是传输时延(Transmission Latency)和吞吐量(Throughput)。吞吐量指系统在每秒内发送或接收到的消息的字节数,它取决于节点的体系结构和通信机制。传输时延主要有三个部分组成:

一个消息的传输时延:从它在源结点进行发送初始化到它在目的结点完整的被接收所耗费的时间。一个网络的传输时延:在一定条件下发送消息的平均时延。

网络的吞吐量:单位时间内网络所能传输的消息数目或长度。

图1 wormhole寻径

2 Wormhole寻径(Wormhole Routing)

首先把一个消息分成许多片,消息的头片包含了这个消息的所有寻径信息,尾片是一个其最后包含了消息结束符的片,中间的片均为数据片。片是最小信息单位。每个结点上只需要缓冲一个片就能满足要求。

Wormhole寻径方式如图1所示。

当消息的头片到达一个结点A的寻径器后,寻径器根据头片的寻径信息立即做出寻径选择:如果所选择的通道空闲而且所选择的结点B的通信缓冲器可用,那么这个头片就不必等待,直接通过结点A传向下一个结点B;随后的其它片跟着相应的向前“蠕动”一步。当消息的尾片向前“蠕动”一步 后,它刚才所占用的结点就被放弃了。如果所选择的通道非空闲或者所选择的结点的通信缓冲器非可用,那么这个头片就必须在此结点的通信缓冲器中等待,直到上述两者都可用为止;其它片也在原来的结点上等待。此时,被阻塞的消息不从网络中移去,片不放弃它所占有的结点和通道。这是Wormhole技术和其它流控制技术都不同的地方。

Wormhole方式从管道消息流的概念中所继承的。它的优点是每个结点的缓冲器的需求量小,易于用VLSI实现;较低的网络传输延迟;所有的片以流水方式向前传送。而在存储转发中,消息是整个的从一个结点“跳”向另一个结点,通道的使用是串行的。Wormhole与线路开关的网络传输延迟正比于消息包的长度,传输距离对它的影响很小(消息包较长时的情况)。通道共享性好、利用率高。对通道的预约和释放是结合在一起的一个完整的过程:占有一段新的通道后将立即放弃用过的一段旧通道。易于实现Multicast和Broadcast。允许寻径器复制消息包的片并把它们从多个输出通道输出。

由于wormhole技术淡化了路径长度对网络性能的负面影响,使人们有希望采用简单、规整的低维网格结构来实现高性能的大规模并行处理(MPP)互连网络。所以,wormhole技术已被广泛用于MPP互连网络中,并收到了较好的效果。

3虚拟通道与死锁

对于wormhole寻径方式最重要的问题在于防止消息传递的阻塞和死锁。一个消息有可能在一个向相反方向传递的消息后阻塞,如图2所示。

图2 Wormhole寻径的阻塞

图中,源2与目的2两各节点之间首先开始传输片,这样就阻塞了源1到目的1的片的传送。在这种情况下,通常使用虚拟通道来解决阻塞的问题。一个虚拟通道是一个物理通道的逻辑抽象概念,与一个物理通道关联的所有虚拟通道具有不同的片缓存,并且它们时分复用该物理通道。与此类似,每个与虚拟通道相关联的缓存实际上是该物理通道的缓存的一部分,如图3所示。

图3虚通道示意图

在图3所示的虚通道示意图中,两个虚通道共用一个物理通道,实现了物理通道的时分复用,从而解决了阻塞的问题。在虚拟通道中,一条物理通道在逻辑上分成两个传输方向相反的通道,每一个虚拟通道为单向且有自己的缓存区;一条物理通道上的虚拟通道逻辑上被划分成多个虚拟通道,这些虚拟通道共享这条物理通道发送或接收信息。由于虚拟通道能够有效的减小冲突和阻塞,因此为增强性能和设计非死锁的寻径算法方面,在多计算机系统尤其是MPP中使用的非常频繁。

综上所述,wormhole技术的通道具有共享性好,灵活的连接方式,较高的吞吐率等优点。在wormhole技术中,对通道的预约和释放是结合在一起的一个完整过程。当占有一段新的通道后,将立即释放用过的一段旧通道,充分考虑多个数据包对通道资源的共享。数据包经过的每一段通道既不在数据包到达之前预约,也不在数据包通过之后继续占有,仅仅在数据包到达时才被使用。对于某一段通道来讲,在数据包到达之前它不必空闲等待,当数据包经过之后它立即可以为其它数据包所利用。

4避免死锁的wormhole寻径方式

4.1维序寻径

维数排序路由是一种确定的wormhole寻径方式,它规定了消息传递时所选择的路径的维数即方向的顺序。这种网络的维数按照时限定好的单调的顺序排序。消息首先在最高维或最低维进行置换,直到它在这一维的方向上到目的节点的距离为0,然后消息再在一个相邻的维上进行交换,重复这个过程,直到该消息抵达目的节点。所有的消息不会反向传送,不会形成循环,因此就保证了死锁的避免。

维数排序路由将最短路径分布在整个网络中,这样同时均衡分布了网络的通信量。对于不对称工作量的网络来说,有些通道就会比其他通道繁忙得多,而由于这种算法将路径限制在一个固定的通道上,即使在冲突或网络发生错误的情况下也不能够分散流量。对于所有的确定的wormhole寻径方式中,都存在这个问题。因此,这是确定的wormhole寻径方式的局限性。

(下转第591页)

4.2转向模型(Turn Model)

转向模型开创了避免死锁的自适应算法新方向。它要求通道独立图中没有自环。转向模型针对无附加通道的网络提供了一套发展自适应寻径算法的系统方法,无论是完全自适应还是部分自适应。在这样的情况下死锁的发生是因为包的寻径转向形成了自环。

参考文献:

[1] Duato J, Yalamanchili S, Ni L.Interconnection Networks[M]. IEEE Computer Society Press, Los Alamitos, CA, 1997.

[2] SCOTT S,THORSON G.Optimized routing in the CrayT3D[C].Proceedings of the International Workshop on Parallel Computer Routing and Communication, 1994:281-294.

[3] Liu Yan, Deng Bo, Yang Xiao Dong. LCFFA: A LOW-COST FULLY ADAPTIVE ROUTING ALGORITHM [J].JOURNAL OF COMPUT? ER RESEARCH & DEVELOPMENT,1999,36(3):331-336.

第4篇

关键词:煤矿井下供电;RS-485;可编程串口控制器;综合保护器

1引言

煤矿生产在井下作业,供电负荷场所环境、地质条件复杂,随着近年来煤矿现代化程度的不断提高、井下供电距离的增加以及供、配电要求的日益提高,对煤矿井下供、配电系统的稳定性、安全性和不间断性要求也越来越高。现在的工业现场控制网络中,串口通信网络是最广泛,成本最低的通信方式,其中以RS458最常用。在通讯数据量越来越大的情况下,串口通讯也带来了延迟高,速率低的问题。同时在煤矿供电监控系统建设过程中,面临着众多厂家不同规格型号综合保护器接入系统问题,由于各个厂家甚至同一厂家不同型号不同时期的综合保护器通讯协议都不尽相同,给系统建设带来很大困难。本文作者利用可编程串口控制器(Programmable Serial Controller,PSC)技术构建煤矿井下供电监控系统,解决了上述问题,同时保障了煤矿井下供电安全。

2可编程串口控制器(PSC)技术原理

在煤矿井下串口通讯中采用轮询制,即当总线的通讯速率一定时,系统数据刷新时间=单个分机通讯时间×分机个数÷总线使用率。要减少系统数据刷新时间有两种方式:

(1)在所接分机数量不变情况下在计算机和分机之间加入一个适当的设备,支持N条RS485总线,采用同时并行通讯处理,这样系统刷新时间=单个分机通讯时间×分机个数÷N÷总线使用率;

(2)提高总线使用率。在计算机和分机之间加入一个适当的设备,当计算机没有和下面分机通讯的时候,这台设备继续和分机进行通讯,将数据储存在自带的缓存中,只要计算机需要数据,马上通过以太网将数据成批发给计算机。

PSC就是基于以上原理,采用多CPU并行通讯处理以及超大容量缓存技术,同时对若干智能控制器或者仪表进行并行通讯,所得的数据存储在超大容量缓存中,然后成批量将数据发往上位监控设备。将以往的串口通讯方式改为多路同时并行处理方法,将所有的被控设备按地址进行分组、分批,配合内建的超大容量缓存进行批量通讯,一改以往在规模比较大的串口控制网络中出现的通信速率低、通讯时间迟延长、以及对各种通讯协议不能高度整合等缺点。

1)PSC架构

PSC的架构以ARM处理器为核心,ARM处理器采用32位嵌入式ARM Cortex系列单片机STM32F103x作为PSC的CPU,每个处理器带有可以并行处理的两个串口,共有4片处理器,可以并行处理八路串口,对设备按地址进行分组、分批,并配合大容量缓存进行批量通讯,处理相应速度快,可兼容现场不同种类通讯协议。PSC具有程序存储功能和独立运行的特性,综保的通讯协议在PSC上进行转换并存储起来。即使更换综保,也无需重写程序,做到即换即用。PSC可以单独运行,即使在上位机缺失的情况下,也能保证设备的正常监控。图1为PSC硬件结构图:

图1 PSC硬件结构图 图2基于PSC技术的煤矿井下供电监控系统架构图

2)信号隔离器结构

在煤矿供电监控系统中,难以通过关联试验确认现场综保输出信号是否为本质安全的,根据GB3836的规定,非本安RS-485信号与本安设备连接要做信号隔离处理,即需在非本安信号和本安设备之间加装一个RS-485信号隔离器。本文中与PSC配套的隔离芯片选用ADM2483,芯片内部集成了磁耦隔离通道和RS-485收发器,设计电路连接简单方便,通过单芯片就可以实现RS-485的信号隔离,而且产品体积小,功耗仅为传统光耦隔离的1/10,传输延时为ns级,可靠性高,增强了信号传输的安全性与抗干扰性。

3)PSC编程语言开发平台Rstep

PSC具有使用PC编程语言的可编程功能,较强的扩展性与融合性。使用编程工具就可以将不同的通讯协议转换为规范的协议,从而达到支持不同综合保护器通讯的功能,无需更换综保。与PSC配套的编程开发平台软件为Rstep,软件采用梯形图的编程方式编写程序,梯形图与电气控制系统的电路图很相似,具有直观易懂的优点,很容易被工厂电气人员掌握。

3系统组成和特点

本文中利用PSC技术构建的煤矿井下供电监控系统采用管理层、信息层、设备层三层网络架构,如图2所示。

(1)管理层:地面控制主站和调度管理中心构成管理层。采用工业以太网通讯,其基于IEEE802.3标准的EtherNet/IP网络结构,设备组按点对点连接到工业级网络交换机,由交换机提供RJ-45或SC端口。传输速率为1000/100Mbps,传输介质为单模光纤或5类双绞屏蔽网线。

(2)信息层:井下环网和地面网络构成信息层。信息层是基于IEEE802.3标准的EtherNet/IP网络结构。监控分站与井下环网交换机之间采用以太网通讯,监控分站与监控分站间通过井下环网连接,井下环网通过光纤与地面网络连接。

(3)设备层:综合保护器、传输总线以及监控分站构成设备层。综合保护器通过总线与监控分站连接,监控分站内的PSC将不同协议进行转化并加以存储。监控分站与井下交换机通过以太网连接。

系统具有以下特点:

(1)可编程性:采用Rstep编程软件,以梯形图方式,在PSC内部定义与各种综合保护器的通讯协议,并进行存储,这样监控分站就能与不同通讯协议的综合保护器进行通讯;

(2)自动识别通讯协议:由于每类综合保护器的通讯协议均不相同,所以存储在PSC的程序能自动识别不同类型的综保,达到即换即用,无需重新更新程序,也无需更换任何硬件;

(3)独立性:由于PSC存储了与综合保护器通讯的程序,即使在分站与上层没有网络连接的情况下,依然可以实现就地监控,保障了系统的安全性;

(4)快速性:监控分站与综保通过PSC进行数据处理,每个PSC带有可以并行处理的两个串口,可以并行处理八路串口,对综保按地址进行分组、分批,提高了系统实时性。

4现场应用

本文中基于PSC技术构建的煤矿井下供电监控系统,在安徽淮北矿业集团公司祁南煤矿井下八个变电所进行了工业性试验,对系统的功能、性能、可靠性进行了长期测试,结果表明:

(1)系统接入了祁南煤矿正在使用的五个生产厂家、九种规格的综合保护器;

(2)具备地面远程、井下区域、就地三种监控方式;

(3)具有遥测、遥信、遥调、遥控的“四遥”功能;

(4)系统运行可靠,速度快,响应时间小于1s。

第5篇

关键词:高阶矩阵;并行算法;MPI技术

中图分类号:TP311文献标识码:A文章编号:1009-3044(2007)16-31080-01

The Research of High Matrix Multiplication's Algorithm

YANG Yong-juan,JIANG Qun

(Anhui University of Science & Technology Computer Science and Technology,Huainan 232001,China)

Abstract:Through the comparison between serial and parallel multiply arithmetic of high-level matrix, especially the study on parallel arithmetic through MPI method, the author concludes that it is possible, simple and necessary to multiply high-level matrix under MPI environment.

Key words:High-level Matrix;Parallel Arithmetic;MPI Method

1 绪言

我们经常会遇到大型的高阶矩阵的有关计算,尤其是两矩阵相乘更为常见。在应用中常用矩阵相乘的定义算法对其进行计算,即通常所说的串行算法。这个算法用到了大量的循环和相乘运算,这使得算法效率不高。而矩阵相乘的计算效率很大程度上的影响了整个程序的运行速度,所以对矩阵相乘算法进行一些改进是必要的。随着大型的具有多处理机的并行计算机系统的发展,一些大型计算可以构造相应的并行计算方法进行并行处理,从而减少机器的工作单元,提高计算效率,节约资源,这也就是所要研究的并行算法。

在并行机上实现矩阵相乘必须要研究相关的并行算法,目前矩阵相乘并行算法有许多种,它们主要取决于矩阵的划分,根据不同的划分有行列划分法、行行划分法、列列划分法等许多技术,下面主要采用行列划分法进行矩阵相乘的串并行运算比较。

设矩阵Am×k与Bk×n,积矩阵为Cm×n。则Cm×n=Am×k×Bk×n。

每个元素Cij=∑Ait×Btj(i=1,…,m;j=1,…,n)

2 矩阵乘法的串行算法

在java串行中很好解决这个问题,直接用三个循环即可算出结果:

for (int i=0;i

for (int j=0;j

c[i][j]=0;

for (int t=0;t

c[i][j]=c[i][j]+a[i][t]*b[t][j];

}

}

}

3 矩阵乘法的并行算法

并行计算是提高计算机系统计算速度和处理能力的一种有效手段。它的基本思想是用多个处理器来协同求解同一问题,即将被求解的问题分解成若干个部分,各部分均由一个独立的处理机来并行计算。并行计算系统既可以是专门设计的、含有多个处理器的超级计算机,也可以是以某种方式互连的若干立计算机构成的集群。 它是基于一个简单的想法:N台计算机应该能够提供N倍计算能力,不论当前计算机的速度如何,都可以期望被求解的问题在1/N的时间内完成。显然,这只是一个理想的情况,因为被求解的问题在通常情况下都不可能被分解为完全独立的各个部分,而是需要进行必要的数据交换和同步的。 尽管如此,并行计算仍然可以使整个计算机系统的性能得到实质性的改进,而改进的程度取决于欲求解问题自身的并行程度。

由上面的公式定义Cij=∑Ait×Btj(i=1,…,m;j=1,…,n)可以看出,矩阵C中每个元素的计算彼此之间都是不相关的,其并行性一目了然,因此可以进行并行运算。

3.1并行算法的分析

此并行算法思想是:将一高阶矩阵分解成除数小得多的矩阵相乘的子问题,然后交给各节点机实现,最后进行简单的相加得到最终的结果。

假设现有两个4×4的矩阵进行相乘,则为,

将上面的公式替换为:

按照矩阵乘法计算即为:

C11=A11×B11+A12×B21

C12=A11×B12+A12×B22

C21=A21×B11+A22×B22

C22=A21×B12+A22×B22

此时由刚才的4×4阶的两个大矩阵相乘,改为2×2的8个小矩阵相乘与四个2×2的四个小矩阵相加,可以将各8个小矩阵分配给不同的节点然后利用不同的处理机进行并行运算,这样就可以提高机器的利用效率,最后再加所有的结果交给一个主控机由它进行合并。这时它的复杂性就很少了,若阶数若高,同时处理机的数目越大的话,这种并行计算的优势将体现的更多!但这里还要注意的是,不能因为追求并行性而盲目加大处理器数目,因为各个处理器之间的通讯也是需要代价的。

3.2 并行算法的MPI流程图

假设并行机的处理器有p个:

图1 并行算法图

在刚开始时需要将A、B矩阵的各个子矩阵分别传递给各个不同的处理器,因此需要顺序做,而一旦传送完毕后,各个处理器就可以自己做自己的矩阵相乘运算了,即图中所标的并行处理开始处,直到各个部分处理完毕后,再进行最后的合并。

4 结论

通过上述串行算法与并行算法的比较,可以看出并行算法的明显优势,它具有巨大的数值计算和数据处理能力。现实生活中有许多情况都可以利用并行算法来解决,它能够被广泛地应用于各行各业中。特别是现在的MPI技术,更使得人们编写并行程序越来越简单。

参考文献:

[1]朱旭.矩阵计算的并行算法和实现[J].工程数学学报,1997,14(2):99-103.

[2]李小洲,李庆华.矩阵相乘Cannon并行算法在工作站机群上的实现[J].计算机工程,vol.14 No.8 Aug.2004:49-51.

[3]彭雷,朱永芬,戴光明.PVM下矩阵相乘并行算法的研究与实现[J].微机发展,2004,28(6):102-103.

[4][美]科尔曼(Corrmen,T.H).算法导论(第2版影印版)[M].北京:高等教育出版社,2002.

[5]Wikinson B,Allen M.陆鑫达等译.并行程序设计[M].北京:机械工业出版社,2002.

第6篇

关键词:云计算技术;海量;数据挖掘;模型;效率

前言

最近几年,信息技术的不断发展,使得目前三季度产生的数据量是以前几百年的总和,且处于持续增长的状态。尽管激增的数据量扩展了人们的信息范围,然而无形中也提高了企业或个人从大量数据中挖掘出有价值信息的困难程度。针对该问题,基于云计算的大量数据挖掘技术实现了资源配置和利用的优化,具有虚拟性、实用性等特征,符合数据挖掘快速、准确的要求。由此可见,将云计算技术应用于数据挖掘是目前提高数据利用效率的有效方式。基于此,本文提出的以云计算为基础的海量数据挖掘模型,旨在提供给各企业快速有效的数据挖掘服务,从而减少生产成本和提升生产效率。

1云计算技术

1.1基本概念

至今为止,关于云计算的定义尚未有统一标准,维基百科上关于云计算的介绍如下:云计算是通过网络提供给用户相关服务的新计算模式,主要提供可动态变化的虚拟资源,无需用户掌握基本支持设施的应用和管理。也就是说,云计算是一种新商机,借助价格低、可连接的计算机联网进行任务处理,为各系统提供数据存储、运算或其他功能。就技术面而言,云计算技术起步较早,是虚拟技术的拓展、分布计算技术的发展,是资源统一管理和智能控制的重要表现。和传统计算机技术相比,云计算技术推动了观念创新和方法改进。就商业角度而言,云计算技术的应用目标是提供服务,用户产生需求时会主动购买和应用,适应企业发展和系统升级。通常来讲,云计算技术发展衍生出三种商业契机,包括服务即平台、服务即架构和服务即软件三种。图1所示是云计算商业模式逻辑图。

1.2基于云计算技术的并行运算模型

为了实现对海量数据的并行处理,谷歌公司开发出Ma-pReduce,是一个分布并行运算架构或模型。某个MapReduce可分解成多个Reduce和Map任务,其会将海量数据分解成多个单独运算的Map任务,同时配发到对应计算机进行运算处理,生成一定格式的中间数据,最后由相关Reduce任务对其进行合并反馈运算结果。谷歌公司关于云计算技术的研发比较成功,其五大主要技术有分布式文件系统、大容量分布式数据库、分布式锁机制、集群管理和MapReduce。基于上述主要技术,云计算方能提供大量数据挖掘服务和运算系统。总而言之,云计算平台会将大量数据分解成统一规格的数据模块,并分布存储在云端服务器中,之后通过MapReduce并行运算模型进行数据处理,其是谷歌公司在网络搜索引擎方面的重大突破。尽管通过MapReduce并行运算模型可进行海量数据处理,然而其要求数据结构相同、运算过程简单。关于数据挖掘这类密集型的数据处理技术,可能涉及迭代、近似求解等复杂算法,运算过程比较困难。在这种情况下,以云计算技术为基础的大量数据挖掘受到IT行业的重视,是社会热点问题之一。

2基于云计算技术的海量数据挖掘

2.1数据挖掘

所谓的数据挖掘,是发现数据库中有价值信息的过程,即从大量数据中挖掘出有价值或有意义的信息。就企业角度而言,数据挖掘的目的是从大量数据中发现有利于企业经营管理的信息,而且数据量越大,信息准确性越高。一般而言,海量数据挖掘对网络环境和应用条件要求较高,而云计算技术的应用有效提高了数据挖掘效率。基于云计算的资源管理系统可存储大量数据,并结合数据挖掘要求来合理配发网络资源,提高数据挖掘算法的延伸性,且具有一定的容错性,提高了数据挖掘的可靠性和安全性。

2.2云计算技术在数据挖掘中的应用优势

(1)基于云计算技术的数据挖掘可进行分布式并行处理,提高了数据挖掘的实时性和有效性。并且适合各种规模的企业,降低了中小企业数据应用成本,减少大型企对特殊数据应用软件和设备的依赖性;(2)以云计算技术为基础的海量数据挖掘更便捷、更快速,用户层被隐藏起来了,不需要用户进行数据分类、数据分配和任务控制等操作;(3)云计算实现了数据挖掘的并行处理,可提升传统设备的海量数据处理能力,增加了多个控制节点,具有一定的容错性;(4)以云计算为基础的数据挖掘实现了数据应用技术的共享,满足了不同类型用户的数据挖掘需要。

2.3基于云计算技术的海量数据挖掘模型

云计算技术在海量数据挖掘中的应用体现在云计算提供了并行处理能力和大容量存储能力,有效解决了当前海量数据挖掘的难点。图2所示是关于基于云计算技术的海量数据挖掘模型的结构图。据图,以云计算技术为基础的海量数据挖掘模型包括云服务层、数据运算层和用户层三层。云服务层是最基层,负责存储海量数据和提供分布并行数据处理功能。云计算环境除了要保证数据的实用性之外,还要确保数据的安全可靠性。关于数据的存储,云计算采取分布存储形式,提供了数据副本冗余存储功能,确保在数据遗失等情况下用户的正常运转。当前,比较普遍的云计算数据存储技术有开源的HDFS和非开源的GFS两种。除此之外,云计算数据挖掘实现了数据的并行处理,可在多用户发出指令的情况下,及时回复并提供数据挖掘服务。图2基于云计算技术的海量数据挖掘模型的架构图第二层是数据挖掘运算层,主要负责数据的预处理和挖掘算法的并行处理。数据预处理是对大量无规则的数据进行预先整理,基于云计算的MapReduce并行运算模型只适合同一结构的数据挖掘,常见的数据预处理方法有数据转化、数据分类、数据抽调、数据约束等。对数据进行预处理是提升数据挖掘质量的重要保障,使海量数据挖掘更实时、更快速。用户层是最顶层,直接面向用户,主要负责接收用户请求,同时将数据传递到下一层,并且将数据挖掘的运算结果反馈给用户。除此之外,用户还可通过可视化界面来监督和控制任务进度,并实时查看任务执行结果。基于云计算技术的数据挖掘的流程是:用户在输入模块中发出数据挖掘指令,并传递给系统服务器,服务器自动根据用户的挖掘指令在数据库中调出数据,同时在算法库中调出最优的挖掘算法,对数据进行预处理之后,传递到MapReduce运算模块进行深入数据挖掘,最后将挖掘结果反馈到可视化界面,以便用户查看和了解。

2.4云计算技术应用于数据挖掘的缺陷和应对措施

云计算技术尚处于发展阶段,势必会存在诸多问题或缺陷,以云计算为基础的数据挖掘也存在如下问题:(1)用户需求问题。以云计算技术为基础的数据挖掘势必会成为一种新服务形式,用户需求也会更多样化、个性化;(2)数据容量问题。就数据容量而言,未来可能要处理TB甚至PB容量以上的数据,同时还包括噪音数据、动态数据和高维数据等,某种程度增加了数据挖掘的难度;(3)算法选择问题。数据挖掘效果受算法是否最优和是否并行化等影响显著,算法设计、参数设置等都对数据挖掘结果有直接作用;(4)不确定性问题。数据挖掘过程中不确定因素较多,比如任务需求描述不准确、数据采集和预处理不确定、算法选择不确定等。针对上述问题,可从以下几点入手加强云计算技术在海量数据挖掘中的应用:(1)基本设施的构建。要结合用户具体的个性化要求,同时考虑各行各业的特点,建立合适的云计算数据挖掘系统;(2)虚拟技术为云计算在数据挖掘中的应用提供了重要保障,未来要加强虚拟技术的研发,并推动其成果的最大限度应用,可有效控制网络资源的配发和控制;(3)关于各种云计算产品的研发,要充分结合社会具体需要,引导大众积极参与,从而提高数据挖掘的多样化和个性化;(4)就可信度而言,设计和应用的算法要具备一定的通用性,满足后续调查和检验的要求;(5)关于数据安全性方面,不可用传统加密方式来保证数据安全,而要结合用户的具体需要,在客户端通过合适的加密方式来保证数据安全性。

3结语

第7篇

【关键词】 计算机发展方向;微型化计算能力;新型计算机智能

计算机在最近的几十年发展突飞猛进,是在众多行业中发展最快的高新领域之一。上世纪九十年代的人还难以预料今天计算机会如此强大,而今天的我们所预见的未来的计算机又将有几分准确性呢。不管未来的计算机是什么样的,根据现在的研究以及人们的需要来看,有几个特点可能会在较近的未来实现。计算机将会更加微型化,计算能力还会更加强大,而随着计算机与诸多领域的相互渗透,新型计算机也会应运而生。此外,计算机的智能化也是人们研究的热点话题。

美国计算机市场在2009年第四季度打破记录,共售出了2070万台计算机,比2008年同期上升了24%。继2009年上半年全球个人电脑市场发展遭遇重重限制之后,下半年全球经济进一步复苏,加上个人电脑打出大幅折扣,使全球个人电脑市场出现反弹。全球个人电脑市场2009年全年增长率为2.9%。实际上,全球范围内计算机销量都出现了一致性的增长,这自然受益于计算机售价的整体下调。2009年第四季度,全球计算机市场销量较2008年同期增长了15.2%。计算机销量的增长直接让很多与计算机市场相关的厂商获得了巨大利益,比如Intel、微软和惠普。同时上网本的大受欢迎和Windows 7的都刺激了计算机市场的增长。

日益更新的计算机,未来将会是什么样子?

1 量子计算机

量子计算机的概念源于对可逆计算机的研究,量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。量子计算机是基于量子效应基础上开发的,它利用一种链状分子聚合物的特性来表小开与关的状态,利用激光脉冲来改变分子的状态,使信息沿着聚合物移动,从而进行运算。量子计算机中的数据用量子位存储。由于量子叠加效应,一个量子位可以是0或1也可以既存储0又存储1。因此,一个量子位可以存储2个数据,同样数量的存储位,量子计算机的存储量比通常计算机大许多。同时量子计算机能够实行量子并行计算,其运算速度可能比目前计算机的PcntiumIII晶片快10亿倍。除具有高速并行处理数据的能力外,量子计算机还将对现有的保密体系、国家安全意识产生重大的冲击。无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。世界各地的许多实验室正在以巨大的热情追寻着这个梦想。目前已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核白旋共振、量子点操纵、超导量子干涉等。量子编码采用纠错、避错和防错等。预计2030年有可能普及量子计算机。

2 光计算机

光计算机是用光子代替半导体芯片中的电子,以光互连来代替导线制成数字计算机。与电的特性相比光具有无法比拟的各种优点:光计算机是“光”导计算机,光在光介质中以许多个波长不同或波长相同而振动方向不同的光波传输,不存在寄生电阻、电容、电感和电子相互作用问题,光器件有无电位差,因此光计算机的信息在传输中畸变或失真小,可在同一条狭窄的通道中传输数量大得难以置信的数据。

3 化学、生物计算机

在运行机理上,化学计算机以化学制品中的微观碳分子作信息载体,来实现信息的传输与存储。DNA分子在酶的作用下可以从某基因代码通过生物化学反应转变为另一种基因代码,转变前的基因代码可以作为输入数据,反应后的基因代码可以作为运算结果,利用这一过程可以制成新型的生物计算机。生物计算机最大的优点是生物芯片的蛋白质具有生物活性,能够跟人体的组织结合在一起,特别是可以和人的大脑和神经系统有机的连接,使人机接口自然吻合,免除了繁琐的人机对话,这样,生物计算机就可以听人指挥,成为人脑的外延或扩充部分,还能够从人体的细胞中吸收营养来补充能量,不要任何外界的能源,由于生物计算机的蛋白质分子具有自我组合的能力,从而使生物计算机具有自调节能力、自修复能力和自再生能力,更易于模拟人类大脑的功能。现今科学家已研制出了许多生物计算机的主要部件—生物芯片。

4 神经网络计算机

人脑总体运行速度相当于每妙1000万亿次的电脑功能,可把生物大脑神经网络看做一个大规模并行处理的、紧密耦合的、能自行重组的计算网络。从大脑工作的模型中抽取计算机设计模型,用许多处理机模仿人脑的神经元机构,将信息存储在神经元之间的联络中,并采用大量的并行分布式网络就构成了神经网络计算机。

结束语:

关于计算机未来的发展趋势,不同的人有不同的看法,不同的人也会从不同的方面去探讨,但无论如何,出发点都是为了能够更好地帮助人学习、工作、计算、娱乐等等为了更能方便人的生活,更好地完成更加艰巨复杂的任务。所以,计算机会基于这些进行不断地改造与创新,当一种技术或基本架构遭遇瓶颈时,新的技术就会诞生,这就是计算机不断改进和创新的动力。对于上文的诸多方面,很多已经即将或是快要实现,而有一些则距离现实还有很大距离,甚至有些研究会是失败的,但这完全不能阻挡计算机的发展,也不会阻止与计算机有关的新技术的产生。

参考文献:

[1]蔡芝蔚.计算机技术发展研究[J].电脑与电信,2008(02).

[2]张洁.未来计算机与计算机技术发展展望[J].广东科技,2006(10).

[3]何文瑶.应用计算机技术发展态势分析[J].科技创业月刊,2007(05).

第8篇

关键词:并行算法;并行计算机;矩量法

中图分类号:TD672文献标识码:A文章编号:1007-9599 (2010) 09-0000-01

The Study of Matrix Vector Method Based on the Parallel PC

Sun Peng

(University of North China Electric Power,Baoding071000,China)

Abstract:Parallel processing technology compared to the traditional serial processing,it has the incomparable advantage.In algebra equations and the solution of differential equations for clues in the matrix of parallel algorithm,the application of vector multiplication is analyzed.Through computer fleet admiral matrix in parallel method of vector method,the algorithm was analyzed,and the performance of parallel algorithm of data traffic.

Keywords:Parallel algorithm;Parallel computer;Method of matrix vector

一、引言

近年来随着科学技术的快速发展,越来越多的大规模工程计算问题对计算机的速度提出了非常高的要求。例如复杂电磁场的数值模拟、生物医疗数据统计、三维地震场数值模拟、航空或大型船舶柴油机燃烧室流场的直接数值模拟以及其他计算量大的任务都需要计算机具有强大的计算能力。大型机、巨型机的昂贵价格,使之不能普遍应用。但是随着近年来微处理器的性能不断提高以及高速局域网技术的不断发展,微型机通过高速局域网构建了高性能的并行集群计算系统。与传统的超级计算机相比,并行集群计算系统具有较高的性价比和良好的可扩展性,可以满足不同规模的大型计算问题。

二、矩阵向量乘法

(一)概述

矩阵向量乘法在数值计算和非数值计算中扮演着十分重要的角色(例如线程方程组的求解、多项式的求解)。当矩阵的阶数很小的时候,单CPU的计算机很容易处理,但是当矩阵的阶数很大的时候,单CPU的处理机进行计算出现了困难,或者说成为了不可能。这时,必须将矩阵向量乘法的算法并行化,采用多CPU的计算机(或者分布式网络计算机)运行该并行算法。这样既能降低时间复杂度,又能充分利用多CPU处理机的资源。

(二)按行划分的算法原理

对于矩量法的实现,通常选择带状划分来实现。以按行划分的算法原理进行讨论。在按行划分的情况下,假设处理器数目p与矩阵的阶n相等。计算前处理器 存放向量的第i个分量 和矩阵的第i行 并将 向其余的处理器进行多到多的播送。播送完毕后处理器 进行 的计算,并将计算结果赋予 。计算完毕后, 将 播送给一个指定的处理器,该处理器将 进行组合得出结果向量y。

当处理器数目p小于矩阵的阶n时,情况时类似的,只是开始计算前每个处理器存放矩阵的 行(元素个数为 )和向量的 个分量。

三、矩阵二维拓扑并行算法的实现

两矩阵相乘 ,A是一个 维的矩阵,B是一个 维的矩阵,计算结果C是一个 维的矩阵。并行算法把计算分散到 的子矩阵,。矩阵A分割为 水平片段,矩阵B分割为 垂直片段,则矩阵C分割为 个子矩阵。即主要要解决的是矩阵C的分解。

在4台PC上并行计算,双CPU计算机Chem2和Chem3分配两个进程,Chem4和Chem5上各分配1个进程。 A矩阵为 ,B矩阵为 ,并行算法把计算映射到3 2二维网格处理。矩阵A分割成3个水平片段单元,矩阵B分割为2个垂直片段单元,则矩阵C分割为3 2个子矩阵。 它们必须为整数。分组运算数据如表1:

四、结论

分析矩阵运算结果可知:对于通信量大计算量小的并行程序,采用并行计算并不一定能加快速度,有可能会因为通信时间过大反而影响效率。小负荷计算采用并行方式由于通信开销大,反而影响效率。大负荷运算的加速比逐步变大说明并行效率随负荷增大而提高。

参考文献:

[1]陈国良.并行计算算法实践[M].北京:高等教育出版社,2004

[2]都志辉.高性能计算之并行编程计算.MPI并行程序设计[M].北京:清华大学出版社,1999

第9篇

一.虚拟演播室技术与色键技术

色键技术是电视节目制作中常用的技术。站在蓝色幕布前面的演播室主持人由前景摄像机拍摄,在特技机的色键电路中,由主持人的画面产生键信号,在主持人画面与背景画面进行叠加时,由键信号挖去背景中蓝色以外的画面,而把主持人的图像嵌插在背景画面中,形成了主持人置身于背景画面的图像,这种技术俗称为“抠像”,在普通的色键技术中,背景画面往往是已经录制好的节目。

虚拟演播室技术与色键技术十分相像,它也是由前景的主持人为主的画面和背景画面,采用色键的方法构成一体,产生人物置身于背景的组合画面。然而,在真正的虚拟演播室技术中,背景是由计算机产生的,计算机接受摄像机的控制,随着摄像机的推拉摇移,改变俯仰角度,计算机相应改变画面的大小和角度,并且为了正确再现前景与背景的空间透视关系,还需对前景和背景实施空间锁定,这种空间锁定是通过精确测定摄像机的所有定位参数(包括镜头调整参数)来实现的。

二、虚拟演播室的原理

虚拟演播室的原理如图(1)所示,主持人一般是在呈“U”型或“L”型的蓝箱里做着各种表演,实际的、或“真实”的前景摄像机对其进行拍摄,背景图像(画面装饰、道具和风光布景)大都是三维立体图,由制作人员预先用计算机生成(即预先着色好),前景与背景图像在传输或录制过程中混合。这种合成图像的制作方式即被称为“虚拟”。故此,这种图像摄录系统也被称为“虚拟摄像机”,与传统的蓝幕色键技术截然不同的是,虚拟演播室技术中的真实摄像机(前景图像)与虚拟摄像机(产生背景图像)始终保持同步互锁,为此,必须对真实摄像机的以下参数进行确定:

(1)蓝幕背景的X、Y、Z坐标值。

(2)摄像机的俯仰、摇移以及可旋转角度的数值。

(3)镜头的焦距和聚焦。

然后,真实摄像机的所有上述参数都送入计算机分析,系统对与前景图像相关的虚拟背景图像发出控制指令。最后,录有表演者和真实道具的前景图像与计算机生成的背景图像在色键控制器里合成为一幅画面,传送至视频切换台输出。

由此可见,虚拟演播室系统可分解为三个部分:摄像机跟踪部分、计算机虚拟场景生成部分及视频合成部分。

1.摄像机跟踪部分。

摄像机在拍摄过程中有平移X、纵移Y、高度移Z、水平角、俯仰角、镜头变焦Z00M,聚焦FOCUS等变化,这些参数的改变会引起所摄图像视野与视角的改变,为了模拟人物所在的三维环境,计算机必须根据这些参数不断调整三维视图。而摄像机跟踪部分的作用正是收取摄像机的位置信息和运动数据,实时的跟踪真实摄像机,以保证前景与计算机背景“联动”。由于这种“联动”是以高速计算机运算的结果,而这种运算永远是存在着一个运算时间,所以这种“联动”是有时间差的。只是设计者保证使这种时间差在一个人眼不易察觉的范围之内,因此要求前景摄象机只能在一个有限的速率内改变位置参数。目前虚拟演播室的摄像机跟踪系统主要有以下几种方式。

(1)基于传感器的系统。该系统通过安装在摄像机各部分的机械传感器来获取各种信号参数,平面X、Y位移传感器,一般有光电式、机械式和导轨式等几种,光电式属非接触型,误码率低,连续性好,且摄像机移动不受限制,但必须在摄像机移动通道地面画上格点,以便识别。机械式属接触型,由一个与地面相摩擦的圆球带动水平、垂直两个方向的光电码盘,光电码盘送出X、Y数据,此方式摄像机移动也不受限制,但使用时间长了易产生误差。导轨式误码率低,且必须铺设轨道,使摄像机的移运受到一定的限制。高度位移Z传感器,一般安装在升降机上,随升降机的运动检测Z信号。水平角度和俯仰角度传感器安装在摄像机云台上,并分别与云台的水平转轴和垂直转轴连动。聚焦Focus和变焦Z00M传感器,则附于镜头的聚焦齿轮和变焦齿轮处。该系统速度很快,方法较为简便直接,是目前虚拟演播室最常用的摄像机跟踪方式,但该方式有其固有的缺点,比如得到的摄像机参数精度不高,限制了摄像机的运动,系统的标定很麻烦等等。

(2)基于图形分析系统该方式需要把一个精确的网络图案以两种不同的蓝色形状绘制于蓝背景上,通过摄像机识别这种图案并与计算机跟踪软件及硬件,预先确定的模型进行对比,以确定物体与虚拟背景的透视关系及距离。该系统精度较高,无需镜头校准,同时摄像机可以不同轨道进行运动,但该系统在对蓝色网格图案制作色键过程中的阴影很难处理,很难保持良好的键的质量,摄像机拍摄不能垂直于蓝色网格图案,必须偏离30度角以上,否则不能准确定位,而且摄像机必须同时观察4个网格点以保持跟踪,这就不可能对人物进行特写镜头的拍摄,摄像机必须缓慢移动以避免跟踪混淆引起跳帧。还有一点,此系统需要额外的工作站把网格坐标信息转换为摇移,俯仰及变焦坐标信息供图形计算机使用,这样图案辨识的延时有时高达8至12帧。鉴于上述须待解决的若干问题,网格识别方案在目前的虚拟演播室系统中使用的不多。

.计算机虚拟场景生成部分

虚拟演播室的场景是计算机绘制的图形,计算机绘图有二维和三维之分,因而虚拟场景也有二维和三维之分,二维场景没有厚度,只是一个平面图形,所以二维虚拟场景只能作为背景平面,出现在真实人物的后面,而三维虚拟场景中的景物具有Z方向的厚度,是立体的,以背景中的一个长方体为例,长方体是一种六面体,其底面和背面一般是看不见的。然而随拍摄角度的不同,有可能看见其正面,侧面和顶面。在计算机中应保存其正面、侧面和顶面的图像,实际上,在计算机内,其正面、侧面和顶面的图像都分解为像素的形式,保存在存储器中,当摄像机处于任意的角度位置时,计算机即进行计算,获得相应的画面。同时,三维的场景中,虚拟景物既能作为真实人物的前景出现,也能作为背景出现如图(2)所示:并且真实人物还能围绕虚拟景物运动如图(3)所示:

这样在视觉效果上更具纵深感,更加真实。显然对于计算机的运算能力、运算速度提出了很高的要求。当然还必然进一步考虑许多细节问题,比如灯光和阴影的问题,当摄像机改变其取向位置时,根据照明条件,阴影部分将发生相应的变化,背景画面应该能够反映出这种变化。

3.视频合成部分

虚拟演播室系统视频合成的基本技术是色键器抠像,摄像机拍摄的蓝幕布前的真实景物:通过色键器进行抠像处理,与计算机生成的虚拟场景合成一个画面。

(1)深度合成技术

虚拟演播室的一个基础就是前景和背景合成的时候,前景的演员可以被背景的内容覆盖,为了做到这一点,一般都采用深度合成技术。所谓深度就是前后关系,这一种技术要考虑两路键信号的深度信息,就可以让背景的内容在演员前面。这不同于二维图像的层技术。因为是三维图像的各像素都带有深度信息,而且各像素还有与摄像机的距离的信息,由这两部分的信息决定前景和背景的像素的可见性。在实时生成的时候,高性能的终端通常使用一个深度缓冲区来贮存像素的深度值,但是在常规演播室里面,实际信号是没有深度信息的。而且也没有一个方法能够实时的赋予前景信号以深度信息,可以采用一个估计值,即估计摄像机与演员之间的距离,前景信号通过色键抠像得到演员部分的信号,先与背景作常规意义上的合成,得到色键序列值,这一部分确定了前景在背景中的位置,再由深度值来进行前后关系的调整,最后输出的深度键值序列就确定了前景和背景的可见性,能够按常规方法合成。

(2)同步技术

要使前景和背景天衣无缝的合成,既要让两个摄像机的参数保持一致,还要让两个摄像机同步,因为当进行实时合成时,前景信号的每一帧是与背景信号的对应帧合成。背景信号因为摄像机跟踪系统和实时生成都要耗费时间,所以要让前景信号延时来保证与背景信号的同步合成。

三、系统的实现

从上面的原理分析可以发现,虚拟演播室每生成一帧图像,就要处理相当多的数据,在实拍时还要求处理速度,达到实时的电视速率,即一秒钟就有25帧图像,如果按常规的处理方法,一切由计算机串行处理,是绝对不可能完成的,这就对虚拟演播室的软硬件设计提出了较高的要求:

1.硬件工作平台

为了使虚拟背景画面与摄像机摄取的前景画面相配合,系统至少要工作在配置有视频处理板的SGI高性能工作站,同时为了完成实时的图像序列生成,必须把这个任务按处理内容分类进行并行处理;实时的完成摄像机跟踪运算,完成人工背景和实际信号深度,支持三维自动建摸的多重处理,对于预处理结果的描述和图像处理的工作,每一个任务要有一个专门的硬件来完成。

2.软件系统

软件系统设计的思想是根据硬件的并行处理的特点,一般采用自适应并行处理的计算。这个处理在实际上就是由一系列的处理器组成的服务器盒,这个服务器盒能完成虚拟演播室所需的各种处理,另外,自适应并行处理模式将运行和编程分开。不需要在编写程序时作并行处理的考虑,因此该种设计方法,因为处理问题较为灵活而成为虚拟演播室软件设计思想的主流。

四、虚拟演播室的现状与未来

自从1994年第一套虚拟演播室在国际广播电视会议上展示以来,世界上有很多厂家推出了自己的虚拟演播室系列,但主要的有四个厂家即:

(1)以色列的ORAD公司以其独有的模式识别技术和图像处理技术开发出高性能CybersetO及入门级CybersetEt系列产品。

(2)离散逻辑公司的Vapour是采用高性能终端,全功能的实时虚拟演播室系统。

(3)ES公司的Mindset是基于NT平台,采用Orad公司的摄像机跟踪系统,能够接多个摄像机。

(4)RTSET公司的LarusOtus采用传感器跟踪技术,速度快,提供了灵活的合成能力。

另外还有ACCOM的ELSET自动生成特征,让用户能很方便的根据自己的意愿来建模和灯光设计;Digmedia的BrainstormEstuio产品是采用模式识别方法定出摄像机的参数,在建模上功能比较强;For-A的DidiWmp采用了Orad公司的视频处理和延时设备,采用多通道结构,能实时处理等。

因为高性能产品整套系统的价格比较高,难以普及,所以各厂家又推出了入门级产品,如Orad的CybersetE以满足众多的电视台和影视制作单位,采用性能较低的终端如:SGIO2采用WINDOWSNT作为平台,进行非实时的图像合成,系统采用开放式结构可以扩充到高性能的实时系统。

就目前情况看,虚拟演播室相对于传统演播室的优势是不言而喻的,但就其未来的发展,虚拟演播室还需要解决其自身的若干缺限:

·蓝景区中主持人及演员的活动范围及定位。

·为抑制噪声边缘需要在实施键控时格外小心。

·普遍使用的槽置单调光、柔光。

·演员投在虚拟地面、墙面和人工景物上真实阴影的保存。

·自动Z键(深度信息)控制。

·前后景的同步及延时控制。

第10篇

高性能计算(HPC,HighPerformance Computing)使用超级计算机和计算机集群来解决高等计算问题。今天,接近万亿次浮点运算区域的电脑系统都可算作高性能计算机。在超过30年中,它解决了许多问题,加强了许多科学和工业领域的进展如气候、生物、地质、药物设计、汽车、航空航天。然而,新的技术,如多核处理器和加速器(GPGPU),迫使研究人员重新思考该领域的进步,如算法,运行系统,语言,软件和应用程序。本书介绍了在高性能计算(HPC)和异构系统方面的最新科学进展。

全书分8部分,共23章。第1部分 引言,共1章:1.开放欧洲网络在复杂环境中的高性能计算的总结:介绍了其科学组织及项目活动。第2部分 用于异构,多核心系统的数值分析,含第2-4章:2.迭代求解方法和预处理技术对异构多核和众核平台的影响;3.多核计算机二维扩散方程的高效数值求解;4.神经科学中并行算法抛物问题的图表显示。第3部分 高性能计算机网络通信与存储注意事项,含第5-8章:5.高性能计算中拓扑映射算法和技术概述;6.异构HPC平台集群通信的优化;7.大规模并行处理器有效的数据访问模式;8.可扩展的存储I / O软件的蓝色基因架构。第4部分 异构体系结构的有效利用,含第9-12章:9.异构系统中工作流动态调度的公平资源共享;10.异构多核架构中里德-所罗门纠删码的系统映射;11.异构并行计算平台和工具的计算密集型算法:案例研究;12.电磁学问题中混合并行的有效应用。第5部分 CPU+GPU共处理,含第13-15章:13.对于使用功能计算性能模型的高性能计算平台上高度异构,分层的设计和优化;14.高效多级负载均衡的异构CPU+GPU系统;15.共享内存异构系统中的全对最短路径问题。第6部分 分布式系统的有效利用,含第16-17章:16.高性能云计算中的资源管理;17.大型并网系统的资源发现。第7部分 高性能计算中的能源意识,含第18-20章:18.HPC系统的能量感知途径;19.云联盟中提高能源认识的策略;20.使用异构CMP启用网络安全的高性能计算系统。第8部分 异构高性能计算的应用,含第21-23章:21.迈向高性能的分布式图像检索系统,高光谱遥感数据:以丛林计算为例;22.利用异构平台的图像和视频处理;23.通过CPU+GPU协同处理的实时层析重建。

作者Emmanuel Jeannot是法国国家信息与自动化研究所的高级研究科学家,他从巴黎高等师范学院获得了计算机科学博士学位,主要研究方向为流程布局、调度异构环境和网格、数据的重新分配、算法和并行机模型。

本书提供了在复杂环境中高性能计算的最新成果。适合想要了解高性能计算领域和发展现状的研究人员和开发人员阅读。

李亚宁,硕士研究生

(中国科学院自动化研究所)

第11篇

关键词:邻接矩阵;并行算法;存储冲突

中图分类号:TP301文献标识码:A文章编号:1009-3044(2009)25-7201-02

An Parallel Adjacent Matrix Algorithm without Memory Conflicts

LI Zhao-peng, CHENG Yun

(Hunan University of Humanities, Science and Technology, Loudi 417000, China)

Abstract: Adjacent matrix algorithm plays a very important role in scientific computing and information processing, which is one of the most extensively studied branch in data mining. Presently the adjacent matrix algorithms based on serial or SIMD which can not process memory conflicts among different processors. To overcome this shortcomings, a new parallel algorithm based on SIMD-EREW is proposed in this paper. The proposed algorithms can compute adjacent matrix of n objects with O(p) processors in O(n2/p) time. Performance comparisons show that it is an improved result over the past researches.

Key words: adjacent matrix; parallel algorithms; memory conflicts

邻接矩阵技术在图论、科学计算等领域有着极为广泛的应用[1,2,4], 邻接矩阵是表示顶点之间相邻关系的矩阵,设G=(V,E)是一个图,其中V={v1,v2,…,vn}为顶点集,E为边集。G的邻接矩阵A是一个具有下列性质的n阶方阵,其中vi,vj∈V,a为边vi,j的权值.在图的运算中许多算法通常采用邻接矩阵作为存储结构来处理如:计算最短路径的Dijkstra算法、Floyed算法,Prim算法等,这些算法中都涉及到边的权值计算,对于一个n个顶点的完全图其权值边的计算复杂性将是O(n2)因此如何提高邻接矩阵中边的权值计算速度将是一个很有实际意义的工作。下面给出一种通过并行处理的方法达到既提高运行速度又能在最弱的并行计算模型SIMD-EREW实现的邻接矩阵算法。

1 并行无存储冲突算法

使用并行计算机解决一个应用问题时,就特别需要一个抽象的并行计算机结构作为研究高效的结构依赖性算法的基础,以保证并行算法适应于广泛的并行计算机结构,并能够依照抽象的结构分析并行算法的效率,以及指导与并行机结构相匹配的并行算法的设计。并行计算模型就是为并行算法的设计、分析而研究出的并行计算机的抽象结构。

1.1 计算模型

PRAM(Parallel Random Access Machine,随机存取并行机器)模型,也称为共享存储的SIMD模型,是一种抽象的并行计算模型. PRAM模型可以分为: 不允许同时读和同时写的PRAM-EREW;允许同时读但不允许同时写PRAM-CREW;允许同时读和同时写的PRAM-CRCW。

PRAM-EREW是功能最弱的计算模型TM 表示某并行算法在并行计算模型 M 上的计算时间,则TEREW >= TCREW >= TCRCW且

TEREW = O(TCREW*logP) = O(TCRCW*logP) (1)

其中p 为处理器数目,上式的含义是,一个具有时间复杂度 TCREW 和 TCRCW 的算法,可以在 PRAM-EREW 模型上,花费 logP 倍的时间模拟实现。CRCW与EREW相比,PRAM-EREW的底层硬件相对来说比较简单,并且因为它无需对相互冲突的存储器读写操作进行处理,因此运行速度也比较快。

1.2 并行算法

令G=(V,E)是一个图,V ={v1,v2,…,vn}是顶点集,E是边集,各边权值这里暂定义为相连两点间欧几里德距离即

(2)

其中i,j∈V,m为顶点的空间坐标。这里假定每个顶点有m维坐标即V1(x11, x12,…,x1m), V2(x21, x22,…,x2m),…, Vn(xn1, xn2,…,xnm),则并行算法如下:

begin

forl = p to 1 step by C 1do

forall processors Pi where 1≤i≤l do

fork =[n/p](i-1+p-l) to[n/p](i+p-l)do

forj =[n/p](i-1)+1 to [n/p]×i do

begin

compute the Euclidean distance dkj where

write dkj to the shared memory

end

end

2 算法性能分析

假定每个PRAM处理器计算欧氏距离的时间为O(1)(实际为O(m),文中假定m为常量),如图1所示.1) 若p|n,上述算法的三次循环总时间为p×n/p×n/p=n2/p,计算成本为p×n2/p=n2.由于不同处理器计算的dij互不相同,因此它们将不同的dij写入共享存储器的不同地址单元,即各处理器的写入不会存在冲突.而在算法循环运行的任何时刻,对不同的处理器Pi和Pj,如果i≠j,则处理器i所计算的距离d的下标将不同于处理器j所计算距离的下标.这说明处理器i和处理器j在任何时刻所读取的存储单元互不相同,从而不同处理器间也不存在对同一地址单元的读取冲突.因此算法可运行于EREW模型. 2) 否则,即p不整除n,则除了处理器p和最后对l的循环和情形(i)稍有不同外,其它均维持不变,显然此情形下算法的运行时间和计算成本均不会变化.

a. when l=p b.when l=p-1 c.when l=1

图1算法执行的不同时刻各处理器处理的数据块

综上所述算法能在EREW-SIMD模型上以O(n2/p)的时间和O(n2)的成本完成.且与文献[1,2]相比速度得到提高。

3 结论

受无存储冲突并行归并算法的启示[3],基于EREW-SIMD模型,提出了一种新的并行邻接矩阵算法.算法使用p个处理机,1≤p≤n/logn,在O(n2/p)的时间完成n顶点的图赋权邻接矩阵计算,此算法可较大地减少邻接矩阵的计算工作量为后述相关处理节约时间.当然本算法只是处理了邻接矩阵的一个部份即赋权值的计算,有关邻接矩阵的内容还很多如存储方式等,这有待于进一步的研究。

参考文献:

[1] Han J W, Kamber M. Data mining: concepts and techniques[M].Morgan Kaufmann Publishers,2000.

[2] 周水庚,胡运发.基于邻接矩阵的全文索引模型[J].软件学报,2002,13(10):1933-1942.

第12篇

关键词:大数据技术;石油行业;信息化;云计算

作者简介:郭瑞(1986-),男,助理工程师,本科;李健(1987-),男,助理工程师,本科;田立锋(1984-),男,助理工程师,本科

伴随着现代社会的飞速发展,大数据技术已经成为了石油石化行业信息化管理的重要手段。在大数据技术的管理与发展中,云计算技术的使用成为了软硬件资源管理的主要集中体现的区域。而云计算领域的涉及也逐步地让人们了解到大数据应用技术的便捷性。下面针对大数据技术在石油行业信息化中应用的具体实践情况进行简要论述。

1云计算技术

什么是云计算技术呢?可以理解为在网络配套设施的使用中,集中资源地统一化管理分配,从而使用户通过协同合作来完成企业、个人的信息服务。其主要的核心技术集中体现在虚拟化技术、数据存储技术和并行计算技术3个方面。虚拟化技术:是对服务的一种虚拟化,将更多的服务资源进行统一管理后,实现多个虚拟服务器共同服务的效果。这样对于用户所需要服务资源能够进行一个更高效的支配管理,同时在数据处理和桌面系统运行上,也能够实现的服务资源利用的最大化。数据存储技术:这一技术属于云计算的存储技术,利用分布式的信息系统,完成对计算机集群的整合管理,通过有效设置实现对更加庞大的类型数据进行存储的目标。在运行中主要依据于软件的集合工作,从而达到内外部的业务数据访问的目的。从目前的数据存储技术来看,主要有Google文件系统(GFS)和Hadoop分布式文件系统(HDFS)两种技术来供应实际的使用。并行计算:是指同时使用多种计算资源解决计算问题的过程,是提高计算机系统计算速度和处理能力的一种有效手段。这种计算方法,能够极大地提高计算的资源的处理速度。通过化整为零的方式实现一个问题分步解决,从而解决大型而复杂的计算问题。

2信息化运行现状和发展趋势

伴随着我国经济的迅速发展,石油行业也得到了全面的发展,在管理上也逐渐地意识到信息化改革的重要性。在实施的石油行业管理中,通过对传统模式的改革,逐步地实现了向信息化、数字化转变的目标。通过对企业信息资源的有效性管理,并结合现有的管理模式,更加有效地提高了企业资源的利用率。下面对传统管理模式和信息化管理模式的优缺点进行对比。信息检索速率的改革:传统的信息管理会面临巨大的信息检索工作,即便是在现代的企事业单位高效率软硬件工作环境下,信息传输速率也都会出现瓶颈。而大数据技术的信息检索管理则会有效地改善此类问题,从而更加便捷地将生产、维护、运行中所出现的信息资料统一进行提取备份分析,通过高效的算法以及软硬件资源的里配置,迅速地筛选出所需要的一系列信息资源,从而实现对信息速率的极速提升。通过这样的信息技术应用,极大地提高了企业部门的系统管理工作的效率,加速了企业管理的信息化市场应用改革的进程。产品全生命周期管理的改革:传统的产品生命周期较为复杂和繁琐,通过可研、立项、设计、施工、运行、维护监测等多个阶段测试后,方可进行投产使用。而设计期间以及施工期间的信息检索以及采集处理需求量较大,导致资源消耗也过大,极大地增加的生产周期的负担与运营成本。而大数据技术中的信息模拟仿真技术就是解决此类问题的有效方法,它能够合理地利用和分配现有资源,精准地检索出所需资料,并高效地进行数据处理。同时通过虚拟的模拟演算,实现对数据准确性的校验与检测,最终达到缩短工期的目的,为生产提供了更高的生产安全保障。行业信息的展示方面:传统的信息管理方法,主要通过纸质文件的形式来进行展示存在诸多的不便。而通过现代大数据技术的信息化管理,能够更加直接地将信息展现在人们的视野之下,使用户获得全方位立体式的信息展示,从而使信息更容易被用户解读,也让用户更有兴趣去了解所展示的信息。

3云计算技术的实际应用

云计算技术在石油行业信息化中的提供的服务与架构如

3.1数字化油田的空间数据库构架

利用大数据技术的超强数据存储能力和虚拟化技术构建一个更加完善和全面的油田空间数据结构,通过等比例尺的多维度数据监控管理,配合虚拟化技术提供的资源与服务,实现在地理信息数据上的有效调度与管控。

3.2建立数字油田的标准体系

数字油田虽然已经经过多年的建设和发展,但是数字油田标准化体系一直处于滞后的状态,成为制约数字油田进一步发展的关键因素。建立数字油田的首要任务是制定有关数字油田建设项目管理类标准规范、软件开发及运行维护通用标准规范、数据建设类标准规范。其中总体设计还会涉及到基础信息分类编码规范和适用于勘探开发应用系统建设的具体标准规范。数字油田标准化体系的建立会对工程项目管理、信息基础设施、数据及交换、信息安全、信息系统建设、系统运维服务等多个方面提供最佳的数字化信息服务。

3.3建立企业数据仓库

随着数据容量与数据类型在过去几十年里的大幅增长,传统的数据存储模式已经无法负荷日益增长的数据量,而数据仓库技术的出现与发展满足了数据存储与分析的这两类庞大的需求,从而彻底改变了数据集成的前景。在建立数据仓库的技术方法中,企业中所有数据首先会根据数据类型进行分类,也会考虑到数据本身的性质及其相关的处理需求。数据处理过程将会用到内置在处理逻辑中并且整合到一系列编程流程中的业务规则,数据处理会使用到企业元数据、主数据管理(MDM)和语义技术等。数据仓库技术可以高效利用当前及未来的数据架构和分类方法,保持处理逻辑的灵活性,使它能够在不同的物理基础架构组件上发挥作用,从而提高企业的信息化管理的效率。

3.4大规模数据的并行处理与计算

现有并行程序设计算法需要考虑数据的存储管理、任务划分与调度执行、同步与通信、灾备恢复处理等几乎所有技术细节,且非常繁琐。为了进一步提升并行计算程序的自动化并行处理能力,应该尽量减少对很多系统底层技术细节的考虑,从底层细节中彻底解放出来,从而更专注于应用问题本身的计算和算法实现。目前已发展出多种具有自动化并行处理能力的计算软件框架,如GoogleMapReduce和HadoopMapReduce并行计算软件框架,以及近年来出现的以内存计算为基础、能提供多种大数据计算模式的Spark系统等。并行计算的性能评估是通过加速比来体现性能提升的,这里所提到的加速比是指并行程序的并行执行速度相对于其串行程序执行速度加速了多少倍。这个指标贯穿于整个并行计算技术,是并行计算技术的核心。从应用角度出发,不论是开发还是使用,企业都希望随着处理能力的提升,并行计算程序的执行速度也需要有相应的提升,从而完成大规模数据的并行处理与计算。

4结语

随着现代信息化技术的不断发展,已经逐步地实现全面的信息化改造建设。而对于作为社会生产命脉的石油石化行业,利用大数据技术实现其信息化的管理与发展,已经成为了一种趋势。在本次的论述中,针对于传统的信息管理策略与现阶段的社会生产模式进行了对比分析与研究,通过对现有问题的探究与认知,进一步证明了大数据技术具有更加便捷高效的特点。倘若要在石油行业的全面信息化建设中大力发展大数据技术的管理,仍需要进行不断的更新与调整,只有做好各个方面适应性改造,才能够实现对工程管理技术上的重大科技突破。

参考文献

[1]高铁钢,王胜利,曹书,等.多元多级数据查找、整合、应用技术在石油行业的应用[C].2011年SuperMapGIS技术大会论文集,2011:181-185,195.

[2]韩涛,韩鹏.海洋石油行业基于地理信息和业务数据结合的可行性研究[J].科技创业家,2014,(5):2-2.

[3]蔡鹏,覃毅,董照显,等.无线数据传输技术在石油行业中的应用及展望[J].石油工业技术监督,2012,28(6):1-4.

[4]李群,陈刚,周相广,等.石油行业上游信息系统灾难备份技术与实践[J].计算机时代,2010,(11):67-69.