软件测试的分类
在刚入测试坑的时候,测试的基本概念还停留在早期学习的相关知识。对于黑盒/白盒,单元测试,集成测试,冒烟测试等多多少少有点了解,但其实分的不是很清楚。
入坑之后,补充过基础知识,参加过一些培训,再加上真正深入测试工作,才有了更多的体会,恍然大悟的感觉。
今天主要总结下软件测试的分类。
在刚入测试坑的时候,测试的基本概念还停留在早期学习的相关知识。对于黑盒/白盒,单元测试,集成测试,冒烟测试等多多少少有点了解,但其实分的不是很清楚。
入坑之后,补充过基础知识,参加过一些培训,再加上真正深入测试工作,才有了更多的体会,恍然大悟的感觉。
今天主要总结下软件测试的分类。
性能测试培训的第二天,主要内容是性能测试一些实例,这些要总结好难,还是要实际操作。
核心的规则还是从进程,到线程,CPU,内存,堆栈,IO,网络一步步分析。
培训上基本上是都是 linux 的命令,我下面简单罗列了一些window下的命令,而且很不全,参考意义不大。
之后有时候再一块一块深入,每一块都有好多细节。。。今天就算给自己交个差吧(捂脸)
最近一直在忙,都没有时间总结和改进现在的测试流程,瓶颈已经显现出来。下周的一个主要的任务就是大批量的测试不同虚拟机下不同参数执行任务的性能,从而得到CPU和Memory消耗适合的一些参数,并做为benchmark。可以预见之后还有类似的测试的任务,那必要要提前做好改变。今天主要是把思路整理出来。
在最近的项目中,需要创建数据用来测试。有时生成的文件太大,需要分散到小的文件中,或者反之。
之前已经有用java写的生成数据的代码,但是改起来不太方便,也没有针对性,用python就方便很多。
基于之前的Message Import测试工具,会生成原始的log文件TestResult.csv。
1 | path,rows,timeused(s),timeused(m),avgtime,messageDate |
而现在又了新的需求,希望能统计一下基于月份的运行时间,所以我简单写了个python脚本,来解析csv文件,将同一个月份的数据group起来。
工作中需要导Message的性能测试作为benchmark,最早的时候有同事使用运行批处理的方式,一些配置和环境都是固定的,也不够灵活。
所以我趁着之前准备数据的基础,我搭建了一个简单的相对灵活的自动化流程。到后期稳定之后,可以做到run at everywhere。
当然,目前回滚数据库这一块还没有做到代码里,最后有需要的话可以加进来。
整个流程其实很简单:
更具体的信息参考:README
主要代码:Import Messages