您好,欢迎访问一九零五行业门户网

Greenplum测试环境部署

本实例是部署实验环境,采用的是citrix的虚拟化环境,分配了3台rhel6.4的主机。
1.准备3台主机
本实例是部署实验环境,采用的是citrix的虚拟化环境,分配了3台rhel6.4的主机。
master创建模板后,额外添加20g一块磁盘/dev/xvdb,额外添加2块网卡eth1,eth2
standby创建模板后,额外添加20g一块磁盘/dev/xvdb,额外添加2块网卡eth1,eth2
segment01创建模板后,额外添加50g一块磁盘/dev/xvdb,额外添加2块网卡eth1,eth2
网络规划
 eth0(外部ip)eth1eth2
master192.168.9.123172.16.10.101172.16.11.101
standby192.168.9.124172.16.10.102172.16.11.102
segment01192.168.9.125(可选)172.16.10.1172.16.11.1
实验环境资源有限暂时配置3个节点,后续可能会根据需求添加segment02,segment03...
修改主机名
将master,standby,segment01的三台主机名分别设置为mdw, smdw, sdw1
主机名修改方法:
hostname 主机名vi /etc/sysconfig/network 修改hostnameoptions:配置脚本,前期为了方便同步节点间的配置,可选。
export node_list='mdw smdw sdw1'
vi /etc/hosts 临时配置
192.168.9.123 mdw192.168.9.124 smdw192.168.9.125 sdw1配置第一个节点到自身和其他机器的无密码登录
ssh-keygen -t rsassh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.9.123ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.9.124ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.9.125cluster_run_all_nodes hostname ; date磁盘规划
gp建议使用xfs文件系统,所有节点需要安装依赖包
# rpm -ivh xfsprogs-3.1.1-10.el6.x86_64.rpm
所有节点建立/data文件夹,用来挂载xfs的文件系统
mkdir /data
mkfs.xfs /dev/xvdb
[root@smdb packages], agsize=1310720 blks= , , imaxpct=25= blksinternal log , version=2= blks, none , rtextents=0vi /etc/fstab 添加下面一行
/dev/xvdb /data xfs rw,noatime,inode64,allocsize=16m1 12.关闭iptables和selinuxcluster_run_all_nodes hostname; service iptables stopcluster_run_all_nodes hostname; chkconfig iptables offcluster_run_all_nodes hostname; chkconfig ip6tables offcluster_run_all_nodes hostname; chkconfig libvirtd offcluster_run_all_nodes hostname; setenforce 0cluster_run_all_nodes hostname; sestatusvi /etc/selinux/configcluster_copy_all_nodes /etc/selinux/config /etc/selinux/注:所有节点都要统一设定,我这里先配置了信任,用脚本实现的同步,如果没有配置,是需要每台依次设定的。
3.设定建议的系统参数vi /etc/sysctl.conf
kernel.shmmax = 500000000kernel.shmmni = 4096kernel.shmall = 4000000000kernelkernel.sysrq = 1kernel.core_uses_pid = 1kernel.msgmnb = 65536kernel.msgmax = 65536net.ipv4.tcp_syncookies = 1net.ipv4.ip_forward = 0net= 0net.ipv4.tcp_tw_recycle = 1net.ipv4.tcp_max_syn_backlog = 4096net= 1net= 1net.core.netdev_max_backlog = 10000vm.overcommit_memory = 2kernel.msgmni = 2048netvi /etc/security/limits.conf
* soft nofile 65536* hard nofile 65536* soft nproc 131072* hard nproc 131072同步到各个节点:
cluster_copy_all_nodes /etc/sysctl.conf /etc/sysctl.confcluster_copy_all_nodes /etc/security/limits.conf /etc/security/limits.conf磁盘预读参数及 deadline算法
在/etc/rc.d/rc.local 添加
blockdev --setra 16385 /dev/xvdbecho deadline > /sys/block/xvdb/queue/schedulercluster_copy_all_nodes /etc/rc.d/rc.local /etc/rc.d/rc.local注:重启后 blockdev --getra /dev/xvdb 验证是否生效
验证所有节点的字符集
cluster_run_all_nodes hostname; echo $lang重启所有节点,验证修改是否生效:
blockdev --getra /dev/xvdb more /sys/block/xvdb/queue/schedulercluster_run_all_nodes hostname; service iptables status4.在master上安装mkdir -p /data/soft上传greenplum-db-4.3.4.2-build-1-rhel5-x86_64.zip到masterunzip greenplum-db-4.3.4.2-build-1-rhel5-x86_64.zip /bin/bash greenplum-db-4.3.4.2-build-1-rhel5-x86_64.bin5.在所有的节点上安装配置greenplum配置/etc/hosts
192.168.9.123 mdw172.16.10.101 mdw-1172.16.11.101 mdw-2192.168.9.124 smdw172.16.10.102 smdw-1172.16.11.102 smdw-2192.168.9.125 sdw1172.16.10.1 sdw1-1172.16.11.1 sdw1-2同步/etc/hosts配置
cluster_copy_all_nodes /etc/hosts /etc/hosts配置gp需要的互信
其它类似信息

推荐信息