准备工作
Tomcat7 http://tomcat.apache.org/download-70.cgi
apache httpd server 2.2: http://httpd.apache.org/download.cgi
apache tomcat connector: http://archive.apache.org/dist/tomcat/tomcat-connectors/jk/binaries/win32/jk-1.2.31/
相关文档:
web server how to:
http://tomcat.apache.org/connectors-doc/webserver_howto/apache.html
安装路径:
httpd: D:\Server\Apache httpd2_2
tomcat D:\Server\tomcat7-1 tomcat7-2 tomcat7-3
JK D:\Server\Apache httpd2_2\modules\mod_jk-1.2.31-httpd-2.2.3.so
step 1: 添加并配置JK
D:\Server\Apache httpd2_2\conf\httpd.conf文件最后加上,意思是把这个配置加载进来
新建mod_jk.conf文件,内容如下:
- LoadModule jk_module modules/mod_jk-1.2.31-httpd-2.2.3.so
- JkWorkersFile conf/workers.properties
- #指定那些请求交给tomcat处理,"controller"为在workers.propertise里指定的负载分配控制器名
- JkMount /*.jsp controller
Step 2: 配置worker
新建并编辑workers.properties文件,内容如下
- #server
- worker.list = controller
- #========tomcat1========
- worker.tomcat1.port=11009
- worker.tomcat1.host=localhost
- worker.tomcat1.type=ajp13
- worker.tomcat1.lbfactor = 1
- #========tomcat2========
- worker.tomcat2.port=12009
- worker.tomcat2.host=localhost
- worker.tomcat2.type=ajp13
- worker.tomcat2.lbfactor = 1
- #========tomcat3========
- worker.tomcat3.port=13009
- worker.tomcat3.host=192.168.0.80 //在我的虚拟机中的,可以算远程的吧
- worker.tomcat3.type=ajp13
- worker.tomcat3.lbfactor = 1
- #========controller,负载均衡控制器========
- worker.controller.type=lb
- worker.controller.balanced_workers=tomcat1,tomcat2,tomcat3
- worker.controller.sticky_session=false
- worker.controller.sticky_session_force=1
- #worker.controller.sticky_session=1
如果三个tomcat不在同一台机器上,那么下面改端口的事情就可以省很多力气,不过因为要单机做负载均衡,所以要更改三个tomcat的8005,8080的端口,确保都不一样,不然tomcat是没办法同时启动三个的。
测试的时候我三个tomcat都放在本地,因为要同时启动三个tomcat,所以需要更改三个tomcat中的Connector端口号,将三个tomcat的的protocol="HTTP/1.1" 的connector的port改为10080,11080,12080。(原来是8080)
同时讲原来8005的端口分别改成10005,11005,12005(这个是关闭tomcat的端口号)
tomcat7-1
tomcat7-2
tomcat7-3
除了更改server.xml中 原来的8080的端口(protocol="HTTP/1.1" 的端口号)
还需要配置AJP13的端口号,同时打开默认注释掉的<Cluster>标签,对应的<Engine>的jvmRoute改成workers.property里面对应的名字,配置如下(删除了注释)
tomcat7-1
- <Connector port="11009" protocol="AJP/1.3" redirectPort="8443" />
- <Engine name="Catalina" defaultHost="localhost"
- jvmRoute="tomcat1">
- <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
tomcat7-2
- <Connector port="12009" protocol="AJP/1.3" redirectPort="8443" />
- <Engine name="Catalina" defaultHost="localhost"
- jvmRoute="tomcat2">
- <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
tomcat7-3
- <Connector port="13009" protocol="AJP/1.3" redirectPort="8443" />
- <Engine name="Catalina" defaultHost="localhost"
- jvmRoute="tomcat3">
- <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
OK,这时候可以成功启动三个tomcat7了,当tomcat7-2启动后,tomcat7-1会打印出replication的信息
类似于
- 2011-9-20 14:12:18 org.apache.catalina.ha.tcp.SimpleTcpCluster memberAdded
- 信息: Replication member added:org.apache.catalina.tribes.membership.MemberImpl[tcp://{172, 16, 10, 96}:4001,{172, 16, 10, 96},4001, alive=1000, securePort=-1, UDP Port=-1, id={109 112 -14 -8 -44 98 79 85 -89 -48 -33 -127 -47 -30
- 26 -75 }, payload={}, command={}, domain={}, ]
- <%@ page contentType="text/html; charset=GBK"%>
- <%@ page import="java.util.*"%>
- <html>
- <head>
- <title>Cluster App Test</title>
- </head>
- <body>
- Server Info:
- <%
- out.println(request.getLocalAddr() + " : " + request.getLocalPort() + "<br>");
- %>
- <%
- out.println("<br> ID " + session.getId() + "<br>");
- // 如果有新的 Session 属性设置
- String dataName = request.getParameter("dataName");
- if (dataName != null && dataName.length() > 0) {
- String dataValue = request.getParameter("dataValue");
- session.setAttribute(dataName, dataValue);
- }
- out.println("<b>Session 列表</b><br>");
- System.out.println("============================");
- Enumeration e = session.getAttributeNames();
- while (e.hasMoreElements()) {
- String name = (String) e.nextElement();
- String value = session.getAttribute(name).toString();
- out.println(name + " = " + value + "<br>");
- System.out.println(name + " = " + value);
- }
- %>
- <form action="testlb.jsp" method="POST">
- 名称:
- <input type=text size=20 name="dataName">
- <br>
- 值:
- <input type=text size=20 name="dataValue">
- <br>
- <input type=submit>
- </form>
- </body>
- </html>
(以下为原文摘抄,我真的比较lazy)
以上的测试说明,集群中的session已经共享,每个集群对于同一访问均有相同的session,而且session中存储的变量也复制了。
节点插拔测试
插拔意思是应该保证当运行的集群中某节点中关闭或者启动时,集群正常工作并且节点能够正常工作。
下面描述测试过程了,贴图太占地方了。
关闭Tomcat2,刷新页面,则不断访问Tocmat1和Tomcat3,再关闭Tomcat1后,则只访问一个Tomcat3,说明节点关闭时运行正常。
如果重启Tomcat2,无论怎么刷新,始终访问Tomcat3,难道Apache不能将请求转发给中途启动的Tomcat2?。。。这时利用另外台机器访问页面,发现Tomcat2正常,然后在刷本地页面,又可以访问Tomcat2了。
从上面可以看出Apache的负载均衡时的算法了,对于每个新来的session,Apache按照节点配置中的lbfactor比重选择访问节点,如果某节点node1不能访问,则寻找下一可访问节点,并且将此node1就在该访问session的访问黑名单中,以后该session的访问直接不考虑node1,即使node1又可以访问了。而新来的session是无黑名单的,如果新的session能够访问到node1了,则会将node1在其他所有session访问的黑名单删除,这样其他session就又能访问node1节点了。以上只是个人经过测试后的猜想。
经过以上测试,说明Tomcat集群和负载均衡已经实现了。
关于集群我还有些疑问,所以又测试了下,直接把结论写出来:
1.集群下的相同的应用可以名称不同(好像没必要啊),只要配置server.xml中host下的context具有相同的path即可。
2. 如果应用名称可以不同,那么应用下内容是否可以不同呢(这里考虑将不同应用通过集群看起来是一个应用,并且共享session),然后集群下不同应用映射为相同的访问path,具有相同的路径则负载,如果某路径只某个应用具有,则一直访问该应用。可现实很骨干啊,答案是否定的,至少我以上的配置不能实现。如果访问只有某应用具有的特别路径,那么只有负载到该应用才可以访问,否则直接路径未找到的错误页面了。
如果您看过网上其他Apache+Tomcat的集群配置,您可能有的疑问?
1.网上大部分的文章配置2个tocmat的集群,有的将workers.properties下的worker.controller.sticky_session=1,
然后tomcat1中的server.xml中的jvmRoute设置为tomcat2,将tomcat2中的jvmRoute设置为tocmat1,当然我这样设置
也成功了,但是如果3个或者更多tocmat呢,怎么设置每个tomcat的jvmRoute,我不会所以才考虑现在的配置
2.server.xml中的Cluster配置问题,网上大部分都是使用BackupManager方式,即Cluster下又粘贴了一堆配置。其实
只要将其中注释掉的<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>去掉注释就完成session的集群
复制了。只是这俩种复制采用的方式不同而已。http://tomcat.apache.org/tomcat-6.0-doc/cluster-howto.html,
这页面已经说的挺清楚了,集群的session复制默认是DeltaManager,是all to all的复制,意思是将集群下1个tomcat应用下的session
对所有的集群中的节点进行复制,即使那个节点没有发布应用。显然是不好的方式,但这在小规模的集群下并没神马问题。
而采用BackupManager,就是众多网上配置那样,对于需要复制的节点设置BackupManager自然也没问题,
但是它的性能并没有DeltaManager 好使“ Downside of the BackupManager: not quite as battle tested as the delta manager”。
因此,具体怎么设置就看大家了,通常说如果不是大规模集群,就默认就好了。反正我自己翻译的就是这个意思了,希望没有误导大家。
最后一个比较全的关于session 同步使用jdbc方式的帖子
http://www.datadisk.co.uk/html_docs/java_app/tomcat6/tomcat6_clustering.htm
http://blog.csdn.net/lifuxiangcaohui/article/details/9703297
相关推荐
Nginx实现负载均衡 web均衡负载 webservice负载均衡 Nginx实现负载均衡配制全说明 为了多台后台的web、webservice服务能均衡负载,可以使用nginx进行处理 1)配置文件全配制ok 2)有两个完整的web服务做例子,可以...
一个完整的nginx配置文件范例参考(含负载均衡)。学习,支持开源,支持nginx
很全的springcloud例子,包括了网关,负载均衡,微服务之间的调用等。导入即可调用
下面是一个 PHP 连接 SSDB的例子:$ssdb->set('key', '123'); $resp = $ssdb->get('key'); echo $resp; // output: 123 完整 API 见 SSDB 项目 PHP API 文档. SSDB 在 QIHU 360 被大量应用, 非常稳定. ...
9.4. Agent负载均衡 63 9.5. Jython 63 9.6. Substitution Methods 64 9.7. 常用代码块 64 9.8. 命令行工具 64 9.9. 升级 65 9.10. 用户权限 65 9.11. 安装Metadata Navigator 67 9.12. 安装Lightweight Designer 68...
在这篇文章中,我将介绍一个新的、独立的、开源的,完全基于C#和.NET Framework3.5的消息队列系统,DotNetMQ是一个消息代理,它包括确保传输,路由,负载均衡,服务器图等等多项功能。我将从解释消息的概念和消息...
盈利宝是一个大型互联网金融项目(理财业务),作为全栈项目涵盖:前端、后端以及金融业务开发。前端为Vue,Axios, 后端采用Spring Boot , Dubbo 微服务的架构,包括多个独立的微服务,micr-common公共服务,micr-...
盈利宝是一个大型互联网金融项目(理财业务),作为全栈项目涵盖:前端、后端以及金融业务开发。前端为Vue,Axios, 后端采用Spring Boot , Dubbo 微服务的架构,包括多个独立的微服务,micr-common公共服务,micr-...
盈利宝是一个大型互联网金融项目(理财业务),作为全栈项目涵盖:前端、后端以及金融业务开发。前端为Vue,Axios, 后端采用Spring Boot , Dubbo 微服务的架构,包括多个独立的微服务,micr-common公共服务,micr-...
盈利宝是一个大型互联网金融项目(理财业务),作为全栈项目涵盖:前端、后端以及金融业务开发。前端为Vue,Axios, 后端采用Spring Boot , Dubbo 微服务的架构,包括多个独立的微服务,micr-common公共服务,micr-...
盈利宝是一个大型互联网金融项目(理财业务),作为全栈项目涵盖:前端、后端以及金融业务开发。前端为Vue,Axios, 后端采用Spring Boot , Dubbo 微服务的架构,包括多个独立的微服务,micr-common公共服务,micr-...
盈利宝是一个大型互联网金融项目(理财业务),作为全栈项目涵盖:前端、后端以及金融业务开发。前端为Vue,Axios, 后端采用Spring Boot , Dubbo 微服务的架构,包括多个独立的微服务,micr-common公共服务,micr-...
15.4.8 一个完整的查看表中各列属性 15.4.8 的实例 258 15.5 常见问题与解决方案 259 15.6 小结 261 第16章 数据库中的程序逻辑 262 16.1 数据库程序逻辑与PHP程序逻辑的分体 16.1 设计原则 262 16.2 数据库中的程序...
支持分布式训练,多worker,多ps自定义负载均衡 支持同步更新和异步更新 支持二分类和多分类 实现embdding+全链接模型 实现Wide And Deep模型 实现卷积+池化+全链接模型 支持训练数据,测试数据异步读取,自定义...
负载均衡器。 该库提供了net.Listener和net.Conn实现,可用于处理可能正在使用代理协议的情况。 仅理解代理协议版本1(易于理解的形式)。 唯一需要注意的是,我们检查“ PROXY”前缀以确定是否正在使用该协议。 ...
一个XSLT的简单例子 XSLXSLT板主题整理 xsl入门的好文章 新手学习XSL的好东西 XSL语法介绍 XSL学习心得 - 调用属性值 XSLT与XML转换的详细介绍 功能应用 读写搜索 基础教程 RSS Web2.0时代,RSS你会用了吗?(技术...