❶ 如何构建大量的测试数据
构造海量数据来验证系统是否能正确执行。怎样才算正确的执行呢?定义一个清晰的、可测量的标准很重要。在进行大数据量测试之前,首先对测试需求做清晰的分析。我们一般很少从功能评价的角度进行这项测试,更多的时候是考查系统性能和效率。假设一个本科院校的学籍管理系统,主要是用来管理学生的,学生在系统中的生命周期一般是4年,根据学校现有的在校生数以及未来五年每年的招生数据,基本上可以分析出需要构造的各个学年下的学生数。这样一来,原来在单个学期能正确执行的功能(功能、性能、效率都满足需求,这个需求可以作为大数据量测试时的参考标准),在处理4个学年的数据(8个学期)时,各个业务的功能、服务器性能、业务执行效率(如查询、统计、数据挖掘等)还能满足需求吗?根据业务特点,数据在系统中总是有一个相对确定的生命周期的,我们需要构造的往往是这些全生命周期的数据,注意不同的业务模块生成的数据量是不一样的。没有必要去构造不符合实际情况,数量级过大的测试数据。
对测试需求做了准确清晰的分析之后,接下来对输入的测试数据进行分析。一方面,我们要求测试数据要尽可能的与生产环境数据一致,尽可能是有意义的数据,可以通过分析使用现有系统的数据或根据业务特点构造数据。另一方面,我们要求测试数据输入要满足输入限制规则,尽可能覆盖到满足规则的不同类型的数据。我们遇到最多的还是在数据库中构造的测试数据,也包括磁盘文件(附件)。
最后一步就是生成测试数据了。生成测试数据的方法无外乎编写sql脚本(存储过程)在数据库端直接生成、编写程序代码生成(实际上也是要写sql)、使用批量数据生成工具(DataFactory、PL/SQL Developer、TOAD等都可以)、使用工具录制业务参数化之后长时间运行来生成(如4楼的仁兄所说)。不过个人觉得使用sql来做是最灵活的,尤其是涉及到业务数据相互转换需要充分考虑到内部处理逻辑及约束时。
补充一点,大数据量测试同时也是检测服务器性能的好时机(例如执行数据转换、统计分析的业务过程),包括磁盘的I/O性能、内存、CPU等,甚至也是对数据增长预测的一个验证。
❷ 一个测试数据管理平台应该具备哪些基本功能
一个测试数据管理平台至少应该提供以下4方面的功能:
1、业务测试流程(测试用例)与测试数据的关联管理
这个功能的主要作用是方便测试组管理测试过程中的数据准备工作,在执行某项测试任务或测试用例之前,可以把关联的造数过程自动触发执行,测试用例执行完成之后,再触发数据清理恢复的动作。
2、数据关系可视化
测试数据之间的关系可视化管理,有利于测试人员理解测试数据之间的关联关系,对照业务功能层面的关系进行梳理,以便正确地设计造数方法、造数脚本。
3、测试数据批量生成
大批量的数据生成不可能人工执行,必须依赖上述造数方式的自动化执行,通常需要利用一些脚本、工具辅助完成。
4、测试数据验证
造数完成后,需要结合业务规则、数据关联关系、数据字段设计规范等对已造数据进行自动化的快速验证。
❸ oracle中怎么造千万级的测试数据
1、用记事本制作千万级数据,我想信你很快,然后导入数据库
2、使用plsql 编程 的 For、While、Loop循环语句
3、自己用insert into 一条一条加。