当前位置:首页 >> 建筑/土木 >>

GROMACS分子动力学模拟并行计算的研究与实现


2008年伞围高性能计算学术年会

GROMACS一分子动力学模拟并行计算的研究与实现
陈文波张洋刘

鑫李廉

(兰州大学通信网络中心甘肃兰州730000)
(hpc@lzu edu cnj

摘要:随着生物化学研究领域的应用对速度和 内存资源需求的增高,并行计算已经成为解决该

问题的有效手段..与并行计算相结合的分子模拟, 已经作为一种研究探索手段被许多科研工作者广
为使用

and

IBM

PE

Through



5 nanoseconds simulation results and parallel

system,the efficiency were
provide


computing

analyzed and

compared,and thus

strong rellerence in drug design research

本文利用一个最为有效的分子动力学软

Key

words:

Molecular

Dynamics,Parallel

件GROMACS,在几种不同的并行环境
LAM/MPI、MPICH2、IBM PE中买现了

Computing,GROMACS,LAM/MPI,MPICH2,
TBM PE

GROMACS的并行计算..通过时长为5纳秒的模 拟体系,分别对计算结果和并行效率进行了分析 和比较,从而为利用该软件进行药物设计研究提 供了有力的参考。 关键词:分子模拟
T,AM,MPT MPTCH2

并行计算是指同时使用多种计算资源解决计 并行计算
TBM
PE

GROMACS

算问题的过程,即将一个应用分解成多个子任务, 分配给不同的处理器,各个处理器之间相互协同, 并行的执行子任务为执行并行计算,计算资源 应包括多台配有多处理机(并行处理)的计算机、 一个与计算机相连的高速网络两者结合使用。并 行计算的主要目的是快速解决大型且复杂的计算 问题或提高求解问题的规模,同时也可以克服单 个计算机上存在的存储器限制。分子动力学计算 机模拟是研究分子动力学的有力T具。这一技术 既能得到原子的运动轨迹,还能像做实验一样作 各种观察它是列理论和实验的有力补充,特别是 许多与原子有关的微观细节,在实际实验中无法 获得,而在计算机模拟中可以方便地得到在生 物制药与纳米材料研究领域中,分子动力学模拟 计算方法有着广泛的应用,是原子、分子水半上 求解多体问题的重要计算机模拟方法。m于受计 算机技术的制约,这些模拟的模型尺寸和时间均 受到了限制,模拟研究的范围也有很大的局限。 随着计算机技术的飞速发展,这些限制逐渐减少,

GRoMACS.The

Research and

Implementation of Parallel Computing in Molecular Dynamics Simulations
CHEN

Wen—Bo

ZHANG Yang

LIU Xin

LI Lian

(Communicate and Network Center,LAN Zhou
University,LAN

Zhou,730000)

Abstract:With
biochemistry more demand

the

rapid

development
are

in

the and and

research
on

field,there

more
speed

the

computational

memory
an

resource

Parallel
to

computing has

become

effective way

solve this problem

Molecular

modeling,combination with parallel computing,is
widely used by

many

researchers

as

means
this

to

investigate
one

the

scientific problems

In lbr
to

paper,

of the

most

effective software
used

molecular
study the

dynamics,GROMACS,was
implement of the
parallel

computing in
as

different

。基金项甘:l司家自然科学基金委员会以及“l刊家科技基础条件平 台”资助项目:计算化学E—SCIENCE毋f究与不范应用(90612016)。

parallel environment,such

LAM/MPI,MPICH2


被广泛的应用于新型材料研制、化学T艺模拟、 大分子生物制药等领域,成为微观模拟的一个主
流技术、j

保持向后的兼容也可以使用mpirun,但是不支持 所有的mpiexc的参数和MPICHl的一些参数、
IBM 在IBM
AIX

PE_41(Parallel Environment)它是为

AIX系统上开发和执行并行程序如



MPI并行环境
MPI(message
passing

Fortran、C、c++而设计的。它是一个分布式内存 消息传递系统,可以运行在RS/6000系列或AIX
interihce)是一个消息

操作系统半台执行并行程序。它把RS/6000系统 的处理器叫做处理器节点,当用户执行并行程序 时,并行任务就分配到处理器节点上,处理器节 点在同一个网络,凶此并行任务能同步的通信和 交换数据。PE支持两种基本的并行程序模式
一SPMP/MPMD。SPMP(Single Program Multiple

传递编程标准,目的是为基于消息传递的并行程 序设计提供一个高效、可扩展、统一的编程环境、 它是目前最为通用的并行编程方式MPI标准中 定义了一组函数接口,用于进程间的消息传递, 这些函数的具体实现m各计算机厂商或科研部 门来完成,比较著名的就是LAM/IVlPI和MPICH。 LAM/MPI口1是一个高性能、免费、开源的 MH标准的实现。它是美国印第安纳大学开放系 统研究室研究并开发的。,它支持MPI一1标准和部 分MPI一2标准。LAM/MPI不仅是实现MH
API

Data)模式程序运行任务在分区是一样的,但是 任务T作在不同的数据集合;MPMD(Multiple
Program Multiple

Data)模式中每个节点可能运行

不同的程序。PE除了支持MH外,还支持LAPI
(Low—level Application Programming),与MPI

的一个库,而且是LAM基于用户级和后台程序 的一个运行环境,提供了许多MPI程序要求的服 务。LAM/MPI的主要组件被设计成框架,可以 扩展成小的模块并在运行期或配置时自由选择, 这个框架被称为SSI【{1(system
services

不同的是,它基于“Active Message StyleH】.’机制。

3分子动力学模拟一GROMACS
分子动力学(MD)是一种物质微观领域的 模拟方法,这种方法通过计算机模拟物质体系中 微观粒子(主要是原子、分子)之间的相互作用 及运动来得到体系中粒子的运动轨迹,再按照统 计物理的方法计算得卅物质的宏观性能等。随着 计算机技术的进步,发展f‘分迅速,逐渐成为模 拟微观系统、预测宏观性能的主要方法之一。分 子动力学的主要瓶颈是在计算时长和效率上。分 子动力学中典型的时间步长为飞秒,即使是微秒 级的现实模拟也需要10万步,显然计算量是f‘分 庞大的。所以分子动力学模拟对计算机性能的需 求可以说是无限的,并行计算是解决该问题的有 效途径。 GROMACS是实现分子动II,J学模拟的一个通 用软件包,也就是模拟数百个或数百万个规模的 离子系统运动的牛顿方程组。它是由荷兰 Groningen大学生物物理化学系开发的,主要设计 用来模拟蛋白质和脂质生物分子,也可以用来研 究例如聚合物等非生物分子体系。GROMACS支 持常见的所有分子动力学算法,如各种热能、压 浴以及静电相互作用计算等。另外GROMACS还

interfaces)。LAM/MPl支持后端check point系统, 并且还可以在多种刚络中实现,如TCP/IP直接使 用点对点、Myrinet使用native gm消息传递库、 Infinband使用Mellamox VAPI。2_f自息传递库。 MPICH2[31是MPI标准的一个新的实现,完 全实现MPI一2标准,是由美闰阿贡实验室开发的。 它的目标是有效地支持不同的计算和通汛半台, 如常规的集群(共享存旷、多核架构等)、高速网 络(10GB以太网、InfiniBand、Myrinet、Quadrics)、 和更高性能的计算系统(Blue
Gene、Cray、

Cicortexl)。:从MPICHl的经验中实现的MPICH2 更加有效和方便用户使用。MPICH2先将MH程 序复制到各个计算节点,再将任务分配到各个节 点开始计算。它提供了一个动态的进程管理和通 信,默认的运行环境有一个叫MPD的后台程序 集合组成,它能在应用程序启动之前在不同机器 问建立通信,最终来开始MH并行任务MPICHl 使用mpirun命令来开始并行程序,MPI一2标准论 坛推荐用mpiexec命令,所以MPICH2实现 mpiexec所有的参数和一些扩展,MPICH2为了

有许多特点如代码实现中采用了相当多的优化算 法,使得它的计算速度很快;分子拓扑结构文件 和其他参数文件都是纯文本文件,易于用户使用; 提供大量轨迹分析]+具和全自动的蛋白质拓扑建 模T具;采取好几种策略来优化提高分子模拟中 最费时间的步骤一粒子问相互作用势能及力的计 算,从而支持并行计算,而且是基于MPI标准实
现的,、

的C编译器。 (2)MPICH2并行环境 56个计算节点,所有节点为双核CPU,网络
为Cisco 3750G千兆以太网,操作系统RedhatAS

3,内核24 2l一32EL,MPICH2一l 0.6,编译器是
Intel Fortron。:

(3)IBMPE并行环境 IBMP575小型机,8个powerCPU,16G内 存,操作系统AIX 5.3,IBM
Parallel Environment

4不同并行环境GROMACS的实现
在使用GROMACS进行分子动力学模拟时, 控制分子动力学模拟的参数文件称为mdp
(Molecular Dynamic Parameters)文件。该文件

forAIX

5L,编译器是IBM

Fortron,

我们在上述三个环境中分别用lnp、2np、4np 和8np进行了计算,前两种并行环境计算任务提 交的过程中我们使用了Torque作业调度软件,作 业脚本分别是
#!/bin/sh

中定义分子动力学模拟的各种行为mdp文件分 为几个部分,每次使用grompp读入mdp文件以 生成tpr模拟文件时,总会生成一个mdout
mdp

cat¥PBS NODEFILE>/home/8/projects/lam2 hosts
/opt/lam/gnu/bin/lamboot

v/home/。/projects/lain2

hosts

文件,在该文件中有自己定义的参数,也有其他 没有定义的默认参数。本文采用一种新的人1:设 计蛋白的x射线晶体衍射结构作为研究对象:
Top7【5

/opt/lam/gnu/bin/mpiru“p 2 mdrun nld #f/bin/sh

22ns tpr“p 2

cat¥PBS NODEFILE>/home/+,prqiects/try/mpd hosts
mpdboot lnpiexec


J。该受体结构m 93个残基组成,有alpha Bank),该



f/hmne/4/projects/try/mpd


hosts

螺旋和beta折叠两种结构域。Top7的三维结构取
自蛋白质数据库PDB[”(Protein
Data

np 4mdrun

Smd np4tpr“p 4

¥PBS—NODEFILE是Torque作业系统分配
的节点名文件。 在IBM AIX小型机中我们运行如下:

冈采用PyMol【61绘制,采用rainbow的着色方式。
如图l所示。、



GROMACS计算及结果分析
在进行分子动力学模拟时,Top7蛋白被溶于

一个7.8x7

8x6

6纳米的SPC型的方形水盒子中,

采用周期边界条件计算。GROMOS87[81力场被用 来描述该蛋白质。该体系先经过2000步的能量最 我们在LAM/MPI、MPICH2和IBM PE二个 并行环境中分别安装了GROMACS,硬软件环境
分别如下:

小化的优化使总能量收敛。体系的温度(T)和 能量(P)通过Berendesen和各向同性的算法”1 分别保持在300K和01帕斯卡(TT=01,TP=o 5)。 键长通过LINCS算法做限制””J。:对短距离和长距 离莱纳德一琼斯(Lennard—Jones)相互作用分别采 用0.9纳米和1.4纳米的撼止值。对短距离电子力 相互作用采用1纳米的截止值,对长距离电子力

(1)LAM/MPI并行环境 lo个计算节点,所有节点为双核CPU,网络 为千兆以太网,操作系统是ROCK4 3,内核是
2.6 9—42.0 0 Elsmp lam一7

1.1,编译器用的是默认

相互作用采用PME算法…1(Particle Mesh Ewald)。计算步长为2飞秒,每lo步进行一次邻 位搜索、我们的体系一共包含1个Top7蛋白分子, 3830个SPC型水分子,18个钠离子和10个氯离 子(以中和电荷),共35352个原子。.分子动力学 的计算结果如下所示:

数s等于处理器个数,但实际上很少能达到这个 数值;并行效率P(n个处理器)=加速kL/n。由 上述定义我们根据计算的时问表(表1),计算卅 了在不同并行环境下GROMACS的并行效率,如
下表2。 表1(单位:小时np:进程数
Inp时间
f 4M/MPI 195

2np叫问
106

4np叫问
94

8np叫问
80

MPICH2

144

78

7l

56

IBM PE

295

15l

79

45

表2
2np S I.AM/MPI 】83 2np P 0 92 4np S 2 07 4np P 0 5l 8np S 2 43 8np P 0 30

MPI(:H2

】85

0 92

2 02

0 5l



57

0 32

IBM PE

95

0 97



73

0 93



55

0 82

从以上的结果我们可以看出,同样的模拟体 系在不同的并行环境在计算时间上有很大区别, 并行效率并不是呈线性增长,但是并行计算的效 率相对于单机还是有所改善,有的还相当出色。 在LAM/MPI和MPICH2中两者的并行效率基本 相同,随着节点的增多效率反而降低,但是编译 器的不同使得运行时间有明显的不同;尽管在
IBM P575小型机上单个np的运行时间比

RMSD和能量相对于时间的变化图可以显示 体系的稳定性我们发现在RMSD图中,体系的 结果变化在0.17—0 23nm之间波动,波动范围仅
为o 06nm。而能量罔显示体系的总能量在5ns的

LAM/MPI和MPICH2运行时间长,但是在多个 np如2、4、8时并行效率要明显比前两者高而且 稳定,尤其在8np的时候计算速度远远快于
LAM/MPI和MPICH2

模拟过程中基本保持在一412366Kj/mol左杆。这些 数据说明我们的模拟体系在5ns的模拟过程中是 稳定的,可以用来进行进一步的数据分析、 通过一个具体的人1:蛋白晶体x射线衍射结

7结束语

6并行效率分析
并行程序的加速比和并行效率反映了并行程 序的整体执行性能,它是衡量一个并行程序性能 的最基本的评价方法。在处理器资源独享的前提 下,其中加速比S(11个处理器)=时间(1个处 理器)/日,1-问(n个处理器),最理想情况下这个参
74

构为研究对象,在三种不同并行环境中实现了 GROMACS的分子动力学计算,其计算速度大大 提高。基于本文的三个不同测试平台,我们发现 其各自的并行效率不尽相同,从而选择一个合适 的并行环境不仅能提高GROMACS计算的并行 效率,而且也能为药物设计、分子模拟研究提供 一个良好的实验半台。

GROMACS一分子动力学模拟并行计算的研究与实觋

参考文献 张林波,迟学斌等并行计算导论[M]北京:清华 大学m版社,2006 [2] [3]
lain—mpi—user pdt http://www lam—mpi org. Sriram

8]DeLano,W
System



2002

The PyMOL Molecular Graphics

DeLano Scientific,Palo Alto,CA,USA R,S

9]

Vanhuuren.A 1993 A

J Mau'ink.and H J C Berendsen
THE

MOLECIILAR—DYNAMICS STUDY OF

Sankaran,Jeffrey M Squyres,Brian Baneft.and
Checkpoint—restart suppm'【system for LAM/MPI Technical

DECANE

WATER

INTERFACE

Journal

of

Physical

Andrew Lmnsdaine services

Chemistry 97:9206—9212

interface(SSI)modules

10]Berendsen,H
\angunsteren,A



C,J





Postma,W
R Haak

F 1984

Report TR578,Indiana University.Computer Science Department,2003

Dinola,and



MOLECULAR—DY、AMICS

WITH COUPLING TO AN
of Chemical Physics

[4] [5] [6]

http://WWW http://www

lilts

anl

gov/research/projects/mpieh2/

EXTERNAL 8l:3684—3690

BATH

Journal

navo

hpe lnil/usersupport/IBM Dantas.G 2003 C Ireton,G Varani,B L

Kuhhnan,B,G

11]Hess.B,}L Bekker.H J
1997 LINCS:A linear



Berendsen.and



Fraaije

Stoddard,and D Baker protein fold with

Design ofa novel globular accuracy Science

constraint of

solver for molecular Chemistry

atomic—level

simulations 18 1463一1472

Journal

Computational

302:l 364-1368

Berlllan.H M.J Westhrook,Z
Bhat.H 2000

Feng.G Gilliland.T E



12]Darden.T,D
MESH

York,and L Pedersen N

1993

PARTICLE FOR of

Weissig.I
Protein



Shindyalov.and P Bank Nucleic

Bourne Res

EWALD—AN
SUMS IN

LOG(N1

METHOD

The

Data

Acids

EWALD

LARGE

SYSTEMS

Journal

2R 23S-242

Chemical Physics 98:10089一10092

175


相关文章:
分子动力学模拟-经验谈
分子动力学模拟-经验谈_机械/仪表_工程科技_专业资料...3. amber 自带 gaff 力场(比 gromacs 那个网页算...(仔细看就会知道,结果一看就知道不对),并行通信量...
分子动力学模拟案例分析
分子动力学模拟经典案例分析雷特格韦(Raltegravir)是第一个通过 FDA 审查的 HIV-1 整合酶抑制剂,前期研究发现它与最佳背景疗法结 合,抗 HIV 能力强于单用最佳...
分子动力学的模拟过程
分子动力学模拟的步骤为: (1)选取所要研究的系统并建立适当的模拟模型。 (2)...微机并行机群的使用,使得在成本较低的情况下,计算速度得到提高。但是,并行计算...
非常好的关于分子动力学各种软件使用的详细总结
是进行分子动力学模拟的最基本步骤,来自 Gromacs ...这需要熟知其他研究人员对相似模拟系统的模 拟方法等...tpbconv 不能更改你原来 tpr 文件中并行计算 的...
三种常用分子模拟软件介绍
Dynamics)是用于在大规模并行计 算机上快速模拟大分子体系的并行分子动力学代码...它的模拟程序包包含 GROMACS 力场(蛋白质、核苷酸、糖等),研究的范围可以包括...
基于分子动力学的常用力场、算法及结果分析
1 力场 1.1 力场简介 分子动力学模拟计算庞大...在利用大型中央处理器 CPU 阵列运行大规模并行分子...曾经风靡一时的程序,如 NAMD GROMACS 等都很快...
M-pro-Gromacs测试报告-v0
Gromacs 主要执行生物大分子如蛋白质、核酸、磷脂等物质的计算, 也可研究非生物...Gromacs 是基于经典牛顿力学的大规模并行分子动力学模拟软件,分子动力学模拟计算量...
分子动力学模拟
分子动力学模拟 分子动力学是一门结合物理,数学和...并以构型积分的结果为基础进一步计算体系的热力学 量...Gromacs, Amber, Namd 均可; 做 DNA, RNA 体系,...
分子动力学模拟及其在材料中的研究进展
《材料计算设计基础》 学 号: 流水号: 姓名: 完成日期: 材料计算设计基础 分子动力学模拟及其在材料中的研究进展摘要:本文综述了分子动力学模拟技术的发展,介绍了...
第六章 分子动力学模拟 Molecular Dynamics
在常温下,经典的牛顿方程对研究生物分子 体系的结构和动力学性质已经足够了,因为...在模拟液相中的球蛋白时,为减少盒子内溶剂分子的个数,从而减少计算 量,可选择...
更多相关标签:
gromacs 并行安装 | gromacs 并行 | gromacs 5.0 并行计算 | 分子动力学模拟 | 分子动力学模拟论坛 | 分子动力学模拟软件 | 分子动力学模拟 代码 | vasp分子动力学模拟 |