システムの紹介 各種手続き 使い方と注意事項 アプリケーション一覧 講習会情報 FAQ

Amber

機能概要

Amberは、カリフォルニア大学のコールマン教授らのグループによって開発された、分子力学および分子動力学計算パッケージです。 Amberでは、分子力学、エネルギー極小化、基準振動解析、分子動力学、自由エネルギー計算などを行うことが可能です。

利用方法

利用範囲

非営利

利用キュー

すべて

GPU版 pmemd 利用時には、APGキューを利用してください。

実行方法

利用するバッチキューとモジュール名との対応は以下の通りです。

バージョンモジュール名(Intel版)モジュール名(GCC版)(GPUにも対応)
22amber/22/intelamber/22/gcc

Amberに付属していますシミュレーションプログラムや解析プログラムが利用可能です。 sander や pmemd はそれぞれMPIによる並列化版として、sander.MPI や pmemd.MPI が用意されています。
さらに、GCC版のpmemd には、GPU版として単精度版のpmemd.cuda, pmemd.cuda_SPFP.MPIや倍精度版の pmemd.cuda_DPFP, pmemd.cuda_DPFP.MPI が用意されています。

各種プログラムには、多くのオプションが指定できます。詳細はマニュアルをご参照ください。
sander, pmemd の並列化版では、それぞれのコマンド名の直後に、-np "CPU" のオプションを用いてCPU数の指定をしてください。

以下に、sander と pmemd の並列化版のコマンドの実行方法を示します。

% module load amber/22/intel
% mpirun -np nproc sander.MPI [-O] -i mdin -o mdout  ⇒
           ⇒ -p prmtop -c inpcrd -r restrt  [必要に応じてオプション指定]
% module load amber/22/intel
% mpirun -np nproc pmemd.MPI [-O] -i mdin -o mdout  ⇒
           ⇒ -p prmtop -c inpcrd -r restrt  [必要に応じてオプション指定]

-O : 計算結果ファイルを上書き

バッチスクリプトでの実行例

sander (MPI版)

以下、sander 計算でのバッチスクリプトのサンプルを示します。 斜体字部分を書き換えてください。また、実行CPU数の指定は赤字部分になります。 sander.MPI や pmemd.MPI 等の MPI版では、実行CPU数は2以上としてください。

#!/bin/csh
#PBS -q APC
#PBS -N title
#PBS -l select=1:ncpus=10:mpiprocs=10

source /etc/profile.d/modules.csh
module load amber/22/intel

cd $PBS_O_WORKDIR
mpirun -np 10 sander.MPI -O -i gbin -c trpcge.crds -p TC5b.top -o gboutmpi.out 

この例では、入力ファイル gbin, trpcge.crds, TC5b.top 出力ファイル gboutmpi.out としています。また、実行CPU数は 10 と指定しています。

pmemd (MPI版)

以下、pmemd 計算でのバッチスクリプトのサンプルを示します。 斜体字部分を書き換えてください。また、実行CPU数の指定は赤字部分になります。 sander.MPI や pmemd.MPI 等の MPI版では、実行CPU数は2以上としてください。

#!/bin/csh
#PBS -q APC
#PBS -N title
#PBS -l select=1:ncpus=10:mpiprocs=10

source /etc/profile.d/modules.csh
module load amber/22/intel

cd $PBS_O_WORKDIR
mpirun -np 10 pmemd.MPI -O -o mdoutmpi.out 

この例では、入力ファイル mdin, inpcrd, prmtop 、 出力ファイル mdoutmpi.out としています。また、実行CPU数は 10 と指定しています。 (入力ファイルのファイル名を変更する場合には、-i, -c, -p オプションでそのファイル名を指定してください。)

pmemd (GPU版)

以下、pmemd 計算(GPU版) でのバッチスクリプトのサンプルを示します。GPU版のコマンド名は pmemd.cuda です。 斜体字部分を書き換えてください。また、赤字の部分は特にご注意ください。

#!/bin/csh
#PBS -q APG
#PBS -N title
#PBS -l select=1:ncpus=1:ngpus=1

source /etc/profile.d/modules.csh
module load amber/22/gcc

cd $PBS_O_WORKDIR
pmemd.cuda -O -o mdoutmpi.out 

この例では、入力ファイル mdin, inpcrd, prmtop 、 出力ファイル mdoutmpi.out としています。 (入力ファイルのファイル名を変更する場合には、-i, -c, -p オプションでそのファイル名を指定してください。)

pmemd (MPI+GPU版)

以下、pmemd 計算(MPI+GPU版) でのバッチスクリプトのサンプルを示します。MPI+GPU版のコマンド名は pmemd.cuda.MPI です。 斜体字部分を書き換えてください。また、赤字の部分は特にご注意ください。

#!/bin/csh
#PBS -q APG
#PBS -N title
#PBS -l select=1:ncpus=2:mpiprocs=2:ngpus=1

source /etc/profile.d/modules.csh
module load amber/22/gcc

cd $PBS_O_WORKDIR
mpirun -np 2 pmemd.cuda.MPI -O -o mdoutmpi.out 

先ほどとは異なり、この場合には全部で2つのプロセスが生成されます。(mpirun -np で指定)
そして、この2つのプロセスは、同一ノード内に2つ(ncpus=およびmpiprocs= で指定)のプロセスが生成されることになります。

コマンドリスト(GCC版の場合)

addles                      make_crd_hg                    pmemd.cuda_SPFP.MPI
add_pdb                     makeCSA_RST.na                 pmemd.MPI
AddToBox                    makeDIP_RST.dna                prepgen
add_xray                    makeDIP_RST.protein            process_mdout.perl
am1bcc                      makeDIST_RST                   process_minout.perl
amb2chm_par.py              makeRIGID_RST                  PropPDB
amb2chm_psf_crd.py          MCPB.py                        ProScrs.py
amb2gro_top_gro.py          mdgx                           pyresp_gen.py
amber.conda                 mdgx.cuda                      py_resp.py
amber.ipython               mdgx.MPI                       quick
amber.jupyter               mdgx.OMP                       quick.cuda
amber.python                mdout2pymbar.pl                quick.cuda.MPI
ambmask                     mdout_analyzer.py              quick.MPI
ambpdb                      memembed                       reduce
antechamber                 metalpdb2mol2.py               residuegen
ante-MMPBSA.py              metatwist                      resp
atomtype                    mm_pbsa_nabnmode               respgen
bar_pbsa.py                 mm_pbsa.pl                     rism1d
bondtype                    MMPBSA.py                      rism3d.orave
CartHess2FC.py              mmpbsa_py_energy               rism3d.snglpnt
car_to_files.py             MMPBSA.py.MPI                  rism3d.snglpnt.MPI
ceinutil.py                 mmpbsa_py_nabnmode             rism3d.thermo
cestats                     mm_pbsa_statistics.pl          sander
charmmlipid2amber.py        mol2rtf.py                     sander.LES
ChBox                       ncvalid                        sander.LES.MPI
cpeinutil.py                ndfes                          sander.MPI
cphstats                    ndfes-AvgFESs.py               sander.OMP
cpinutil.py                 ndfes-CheckEquil.py            sander.quick.cuda
cpptraj                     ndfes-CombineMetafiles.py      sander.quick.cuda.MPI
cpptraj.cuda                ndfes-FTSM-PrepareAnalysis.py  saxs_md
cpptraj.MPI                 ndfes-FTSM-PrepareGuess.py     saxs_md.OMP
cpptraj.OMP                 ndfes-FTSM-PrepareSims.py      saxs_rism
draw_membrane2              ndfes.OMP                      saxs_rism.OMP
edgembar                    ndfes-PrepareAmberData.py      senergy
edgembar-amber2dats.py      ndfes-PrintFES.py              sgldinfo.sh
edgembar.OMP                ndfes-PrintStringFES.py        sgldwt.sh
edgembar-WriteGraphHtml.py  nef_to_RST                     simplepbsa
elsize                      nf-config                      simplepbsa.MPI
espgen                      nfe-umbrella-slice             softcore_setup.py
espgen.py                   nmode                          sqm
FEW.pl                      OptC4.py                       sqm.MPI
fftw_wisdom                 packmol                        sviol
fftw-wisdom-to-conf         packmol-memgen                 sviol2
finddgref.py                paramfit                       teLeap
fitpkaeo.py                 paramfit.OMP                   test-api
fixremdcouts.py             parmcal                        test-api.cuda
gbnsr6                      parmchk2                       test-api.cuda.MPI
gem.pmemd                   pbsa                           test-api.MPI
gem.pmemd.MPI               pbsa.cuda                      tinker_to_amber
genremdinputs.py            pdb4amber                      tleap
gpuP2PCheck                 PdbSearcher.py                 ucpp
gwh                         pmemd                          UnitCell
hcp_getpdb                  pmemd.cuda                     wrapped_progs
immers                      pmemd.cuda_DPFP                xaLeap
IPMach.py                   pmemd.cuda_DPFP.MPI            xleap
makeANG_RST                 pmemd.cuda.MPI                 XrayPrep
makeCHIR_RST                pmemd.cuda_SPFP

サンプルファイル

サンプルファイルは以下に格納されています。必要に応じてご参照下さい。

/usr/appli/amber/22/intel/test

マニュアル

関連サイト

Amber(公式ホームページ)