SlideShare a Scribd company logo
1 of 29
基于HT-RCA缺陷分析的测试
        改进

      张玲玲
目录


1   现状分析&问题提出

    HT-RCA理论基础
2

    HT-RCA工程方法
3
网上问题分析案例(1)

• 这是需求还是BUG?
 – 某产品上传超大资源文件后系统重启失败,用户无法使用业
   务。在测试根因分析后发现测试过程中产品测试人员曾经提
   出此问题,但产品开发人员认为现网客户不会上传这么大的
   文件,问题就此放过。测试根因分析结果是需求问题。

 客户质量标准在哪里?
    某产品上网后由于网络大量丢包,出现服务质量急剧劣化,
     严重影响用户体验,被通报为网上事故。产品需求描述支持
     x%丢包率,所以当丢包率超过需求要求则必然会影响业务。
     测试根因分析认定非测试漏测问题。
网上问题分析案例(2)

 第三方造成的问题也算系统BUG?
    某产品因客户第三方备份平台异常,没有按照约定时间取走
     文档,以至于磁盘空间满、待业务中断后才被用户发现、上
     报事故。现网紧急启动放通机制、应用恢复。测试根因分析
     结果是非系统问题。

• 这到底是不是人的问题?
 – 某产品上网后出现与第三方设备对接失败。测试根因分析结
   果是测试人员执行不正确,改进措施:增强责任心、提高人
   员技能。进一步交流发现:该产品对接接口中有N个相似含义
   字段、且取值各不同,例:A接口0代表OK,而B接口则1代表
   OK,测试人员执行过程中以为自己是对的,但实际上记错了、
   搞混了。
根因分析( RCA)概述
                               •发生的根本原因?
             问题理解              •主要工具:鱼骨图、因
                               果图、5Why、故障树分析
•发生了什么?                        等
•主要工具:流程图、         问题原因分析      •原固多方面多层次,根
时序图、关键事件检                      因可能不止一个
查单等                                      •怎么消除并避免同类
•问题准确定义是关键   •为什么会发生?
                          根原因分析          问题不再发生?
             •主要工具:脑力风暴、                 •主要工具:六顶思考
             散点图、帕拉图、关系                  帽、脑力风暴
             图、亲和图               改进措施
             •可能还需要相关数据
             收集和分析


                   •   质量管理工具,通用的问题根因分析模型,应用广泛
                   •   属于逆向工程,通过RCA寻求问题解决方案,多应用于管
                       理或过程改进
                   •   对于软件系统来说,软件程序是由人写的,人注定会犯
                       错,缺陷注定会发生。通过缺陷根因分析减少缺陷发生
缺陷根因分析现状
   如何进行缺陷内容的测试经验提取和长效改进
       来源于客户问题是一个给我们的回馈,如何最大化的有效利用、固化经验?
       对缺陷分析多数停留在度量、测试策略上应用,对于每个缺陷内容有零度分析,
        但不系统,且也缺少分层。
   缺陷根因分析模型如何凸现测试特点
       多数落脚在测试流程或测试活动的某个方面
       对于测试技术专门性的分析不足

   人因错误如何分析与改进
       对人因不分析或笼统的加以归类(例:测试技能不足),并没有作进一步的细致分析
       对人因错误改进缺少工程化的考虑
目录


1   现状分析&问题提出

    HT-RCA理论基础
2

    HT-RCA工程方法
3
BUG是怎么发现的?

                                     •产品需求
                              标准     •历史版本的做法
                                     •相似产品的做法
                                     •质量属性标准
                                     •用户使用习惯
    操作       配置          观察   评价     •客户的价值取向



                              BUG
    (图示参考:《软件测试经验与教训》)




•    图示BUG可以定义为:在特定配置下对特定系统进行特定操作,将观察到的信息
     与标准加以比对、并作出评价,如果发现偏差即作为BUG提出
•    百度定义:在电脑系统或程序中,隐藏着的一些未被发现的缺陷或问题统称为
     bUG。
•    BUG是一种感知。有不同期望的人对BUG的感知是不一样的。
如何客户知道BUG而我们不知道?

                        测试标准

       操作     配置   观察   评价

        测试场景与客户场景的偏差
       测试场景        VS.
                         BUG

VS.
        测试标准与客户标准的偏差           测试发现

                               客户发现
                        客户标准

       操作     配置   观察    评价
       客户场景
                         BUG
人为什么会犯错?

                     BUG   测试经验          自上而下
          经验 知识 技能                       (应该是什么)
                       决          主观期望
                       策
                                                记忆
          知觉 记忆 思维                         认
                                           知觉   思维
                                           知    注意
            感觉 注意
                                   感觉
测试对象 信息收集                                  自下而上
                           测试对象            (是什么)
     (图示:人脑信息加工模型)


 ■   人脑是一个功能不确定的黑盒系统,受系统容量、负荷、处理能力/效率、知识经验等因素影响
 ■   人脑信息加工的各个环节均可能出现错误:错觉、选择性注意、心理模型(期望与倾向)、认知偏差
     (记忆、知觉、思维)等
 ■   自上而下加工的主观期望是影响测试结果客观性、造成错误的主要原因
人的错误与偏见(1)

•   证实倾向。对于规则或假设,人更倾向于去证实它们,而很少去证伪它们。
    【四卡片选择作用】卡片一面写用字母、另一面写有数字。有规则“若卡片的一面是元音字母,则
    另一面是偶数”。如果要证明该规则,需要翻看哪些卡片
             E      F     4     7
                                          12
•   情景倾向。人对观察到的信息作出解释时依赖于所处的场景。    A      1 C
                                           3
•   错觉。人对观察到的信息可能信息组织方式等原因作出错误的理解。        14
•   选择性注意。人只会注意到新异和自己关注的信息。人更易于关注和选择那些与形成
    的产品经验相关的测试结果,而忽略那些自己经验之外的测试结果。
•   信息不确定性。如果信息有歧义、模糊,则不同人可能产生不同结果解释(双歧图形)
人的错误与偏见(2)
       思维定势。活动前的心理准备状态。当一个操作重复多次后,人习惯于以此操作结果
        作为后续操作的心理预期。例:某个错误对话框反复出现多次后就认为它是合理的。
        【示例】九点连线问题



       功能固着。人将某种功能赋予某个实体后,在后续很难改变原有的看法。例:当我们对一
        个功能很熟悉时,测试时就会按固有的操作方式、而不会进行多样化测试。
       认知狭窄。人为支持事先设定的假设收集证据,将不确定信息当作支持性信息。
       可用性倾向。在人的头脑中想到用户以某种场景进行操作,更可能认为这种操作更常
        出现、并以此对观察结果作出解释。
       最初印象偏见。人相对信任所做的第一次观察。刚开始收集信息更大权重。
       最近印象偏见。人相对信任所做的最近一次观察。

       情境意识降低。人对事故等意外事件发生情境的意识水平降低。例:大脑过负荷。
       记忆偏差。由于信息易混淆及记忆组块限制,人在提取大脑存储信息加工时出现偏差。
目录


1   现状分析&问题提出

    HT-RCA理论基础
2

    HT-RCA工程方法
3
HT-RCA模型介绍

                   BUG特征分析      测试根因分析
          问题根因     故障模式             测试流出原因
    现象
                   客户场景             人因错误

                   客户标准             测试技术原因
     问题   直接原因



                            固化与改进
(启动时机:上游问题根因已清楚)
                     公有经验           公有改进
                     私有经验           私有改进



   强化了面向客户的BUG特征多维度分析、对问题内容信息的深度提取和利用。
   增强了测试技术原因和人因错误分析,对问题根因的多方面分析和改进识别。
   从公有和私有2级进行经验提取和测试改进。
BUG特征分析   测试根因分析 固化与改进



     BUG特征分析:故障模式分析
                           (人为)
                            错误

                             引入
       引入
(人为)                 激活            缺乏 ……         缺乏     失效
              缺陷            故障             故障
 错误                                容错            容错

                              引入
                           (第三方)
                            故障

          XX系统 → (抽象化) → 故障模式 →(实例化) → YY系统

术语   特征               定义
错误   (人-)动作-(XX)对象    人针对特定的对象所做的特定动作
缺陷   (XX)对象-(XX)状态    从特定程序对象角度阐述,体现为静态存在
故障   (XX)实体-(XX)状态    从系统角度阐述,体现为运行状态.故障-旦激活后则可以反复传递
失效   (XX)业务-(XX)状态    从用户角度阐述,体现为所用户体验的业务状态
BUG特征分析   测试根因分析 固化与改进



  BUG特征分析:故障模式分析

【示例】由于用户申请的license文件中缓存消息数一项参数设置过大,导致XX
 系统内存分配出现异常,造成该节点频繁coredown,影响正常业务处理
【分析】
  人为错误:用户 XX参数设置过大
  故障1:   XX系统 内存分配异常
  故障2:   XX节点 频繁coredown
  失效:    XX业务 不能正常使用
BUG特征分析   测试根因分析 固化与改进



        BUG特征分析:客户场景分析

                            客户场景


                操作                        配置


       用户行为          接口操作     数据配置                 运行环境



 个体行为    群体行为                数据量   数据分布   组网配置              参数配置
                协议特征



用户特征                               设置硬件 设置软件 设置核心 业务参数 系统参数
        用户数   操作序列   业务量    业务模型    配置   配置  参数配置


      分析客户场景与测试场景的偏差,例:用户的使用习惯、用户与系统的交互模式、哪些操作和
       配置场景会引起业务失效,逐步建立起客户场景信息库。
      通过场景分类树的方法,将场景层层挖掘深入下去、不断填充细节。
BUG特征分析   测试根因分析 固化与改进



   BUG特征分析:客户场景分析
【示例】某页面C桉钮只可能操作一次,因为页面在操作后桉钮自动变成不可点击。现场
  在操作之前,同时打开了两个IE窗口。在其中一个IE窗口上点击操作保存数据后,又
  在另外一个IE窗口上再次执行相同操作,导致第一次正确数据被覆盖,引发业务失效。
【分析】这个案例中属于典型的用户操作序列问题:打开IE页面A →打开IE页面B →在
  页面A点击桉钮C →在页面B点击桉钮C

         IE页面1          IE页面2         服务器

             打开IE页面1,                   老
             获取老数据X                     数
                           打开IE页面2,     据
                           获取老数据X       X
            点击按钮C,                      新
            生成新数据Y                      数
                                        据
                           点击按钮C,       Y
                           生成脏数据Z
                                        脏
                                        数
                 业务中断                   据
                                        Z
BUG特征分析   测试根因分析 固化与改进



     BUG特征分析:客户标准分析

                               ⑤       ① 测试标准-需求规格
                                       ② 客户标准-测试标准
                                       ③ 测试标准-客户标准
     客    测                            ④ 三者一致
     户    试       需
                  求                    ⑤ 未知
     标    标
     准    准       规
                  格

      ②       ①       ④   ③




   理想状况下,测试标准应是严于客户标准且又涵盖客户标准。
   从问题发生过程的因果链出发,针对一个具体的错误场景,N-Then方法进行层层推进,不断明
    晰问题的结果影响、客户所使用的合格判据、背后所承载的真实期望,从中提取出测试标准。
   对于共性问题按质量属性领域可以进一步抽取出通用的测试标准
BUG特征分析   测试根因分析 固化与改进



   BUG特征分析:客户标准分析
【示例】某版本修改引人问题导致数据库空间满,但由于告警失败,问题到当天下午才被发现、
 规避,导致300O多个用户受到影响,多个用户投诉,客户认为我们的系统可靠性比较低,无法
 及时暴露系统的异常运行状态。改进措施为:增加数据库空间满的告警。
【分析】针对问题发生过程,可以描述成:
    GIVEN 数据库空间满
          THEN 未上报告警
                 THEN 问题未发现
                        THEN 数据库运行状态异常
                               THEN 用户业务受影响、失效
  根据问题发生过程,还原客户的期望:
   IF 数据库空间满
         THEN 糸统上报告警
                 THEN 问题及时被发现
                        THEN 处理该告警、数据库运行状态恢复正常
                               THEN 用户业务正常、未受影响


 客户的真实期望是:问题及时被发现、被处理,不造成业务失效。
 进一步设想:如果没有告警,以短信通知等其它方式确保问题被发现被处理是否也可以?
BUG特征分析   测试根因分析 固化与改进



      测试根因分析:测试流出原因

                          测试遗漏


              用例有                     用例无



      已执行                未执行    方案有           方案无


                  执行策略         执行策略   设计策略            设计策略
已发现         未发现                        有
                   有            无                      无

                                               测试依据          测试依据
                                                有             无


     测试过程回放,从测试流程中寻找缺失的缺陷控制点。
     找到测试流出环节后还可以进一步细化分析。例:”用例无“指的是:无这个用例
      or 用例内容残缺不全,测试点/观察点缺失
BUG特征分析   测试根因分析 固化与改进




测试根因分析:测试人因分析

                疏漏         无意漏做某些行为(选择性注意、意识)

       无意的

                 失误        无意、行为选择出现错误(记忆、感觉、人机交互)

人因差错                   知识性错误          知觉错误、错误理解(知觉)

                错误

       有意的              规则性错误         选择了错误的if-then规则(记忆、思维)

                违规         有意不按规定行为


   基于SRK模型(技能Skill, 规则Rule, 知识Knowlege )
   违规主要体现在系统操维护层面
BUG特征分析   测试根因分析 固化与改进



测试根因分析:测试人因分析

【示例】 测试流出原因是功能用例执行的测试人因分析
【分析】
                   用例执行遗漏


        理解用例意义                   不知道用例意义


按用例执行        有意不按         没有看到             没有理解
 太复杂         用例执行         用例说明             用例含义
    用例不可执行
    (缺方法等)                                        用例描述
                 用例执行信息       执行时 用例参考
                 填写地方不当      注意力分散 信息不全           过于含糊
          用例长得
         差不多、疲劳       测试目的等                缺少产品
                     用例属性不明确               背景知识
BUG特征分析   测试根因分析 固化与改进



 测试根因分析:测试技术原因


 质量
能力      测试技术直接根因   测试技术直接规避   测试技术间接根因
 效率




                    测试技术领域


      公共设施   测试用例/测试场景/测试环境的建设
      功能     测试设计/测试执行/自动化/测试评估的方法/工具
      DFX    性能/安全/可靠性/可测试 的 基线/方法/工具/评估
BUG特征分析   测试根因分析 固化与改进



 测试根因分析:测试技术分析
【示例】测试流出原因是功能用例执行遗漏的测试技术原因分析
【分析】
  要素   了解&分析
  操作   •是否有办法构造测试场景?                 (能力)
       •操作场景人工构造过程是否繁琐、易于出错?         (质量)
       •操作场景构造效率如何、是否相应工具支撑?         (效率)
       •执行工具是否易于使用、所构造场景是否满足操作需要?    (质量)
  配置   •是否有办法、有手段进行测试条件配置?           (能力)
       •人工配置过程是否繁琐、易于出错?             (质量)
       •配置正确性是否易于检查?                 (质量)
       •配置效率如何、是否有相应工具支撑?            (效率)
  观察   •是否相应的输出信息都有手段可以观察到?          (能力)
       •输出信息通过人工是否易于观察和理解?           (质量)
       •是否观察点多、分散、是否有工具统一观察信息收集?     (效率)
  评价   •是否所有荻得的观察信息可以分析和比对?         (能力)
       •是否所获得的观察信息通过人工易于分析和比对、不易出错?(质量)
       •结果分析和比对效率如何、是否有相应工具支撑?     (效率)
BUG特征分析   测试根因分析 固化与改进



固化与改进:总体改进思路

         产品测试用例库

         测试用例基线
          必测用例集
         网上问题用例集

测试经验库
                        技术规划与改进
故障模式    故障模式 测试流出原因
                          测试技术
用户行为    客户场景 测试技术原因       测试工具
组网配置    客户标准   人因错误       测试流程
测试标准      HT-RCA分析

         测试人员能力提升
           知识技能
           测试思维
           测试意识
            ……
BUG特征分析   测试根因分析 固化与改进



   固化与改进:经验固化方案
                                    测试方法

                              测试特性      测试类型
             测试经验库
                 测试属性        测试目的          测试阶段

                             测试场景      测试级别

                                    测试标准   ……
             测试策略&过滤机制




静态检查&评审   用例基线库建设   测试用例设计    测试设计评审
BUG特征分析   测试根因分析 固化与改进



 固化与改进:测试思维

                  目的

       结论                问题



  观念         思考要素             概念



       推论                信息
                  假设

                                             应该把独立思考和综
  自检
                                       合判断的能力放在首位,而
批判思维 比对           准确、明确、深度、重要、 公正、     非获得特定知识的能力。
            清楚的
 过程                相关的   有逻辑的 有广度的
                                                —爱因期坦
BUG特征分析   测试根因分析 固化与改进



 固化与改进:人因工程

       •知觉原则                      •任务分配给人还是
       •注意原则                      机器
       •心理模型原则                    •减少人为不确定性
       •记忆原则

新手

                    以用户为中心
知识型



专家型                                •反应预期
                                   •显示-控制相容
      •使系统与真实世界匹配                  •反馈
      •一致性与标准                      •通道
      •系统状态可见
      •用户控制与自由
      •错误预防、识别与纠正
      •使用灵活性和效率     有效、安全、舒适!
      •简洁和审美上的完整
      ……

More Related Content

Viewers also liked

Coaching ismorethantelling
Coaching ismorethantellingCoaching ismorethantelling
Coaching ismorethantellingdrewz lin
 
User driven development
User driven developmentUser driven development
User driven developmentdrewz lin
 
Dead codepresentation 0
Dead codepresentation 0Dead codepresentation 0
Dead codepresentation 0drewz lin
 
16 exercises for part 3
16   exercises for part 316   exercises for part 3
16 exercises for part 3drewz lin
 
Top100summit 陈辉-游戏测试平台 策划资源文件自动化测试体系
Top100summit 陈辉-游戏测试平台 策划资源文件自动化测试体系Top100summit 陈辉-游戏测试平台 策划资源文件自动化测试体系
Top100summit 陈辉-游戏测试平台 策划资源文件自动化测试体系drewz lin
 
移动测试中心Bmtc
移动测试中心Bmtc移动测试中心Bmtc
移动测试中心Bmtcdrewz lin
 
Agile 2012 pitfalls in agile testing - paul carvalho
Agile 2012   pitfalls in agile testing - paul carvalhoAgile 2012   pitfalls in agile testing - paul carvalho
Agile 2012 pitfalls in agile testing - paul carvalhodrewz lin
 
Minidates otv-agile2012-final hr
Minidates otv-agile2012-final hrMinidates otv-agile2012-final hr
Minidates otv-agile2012-final hrdrewz lin
 
Testers role agile2012
Testers role agile2012Testers role agile2012
Testers role agile2012drewz lin
 
Dollars and dates are killing agile final
Dollars and dates are killing agile finalDollars and dates are killing agile final
Dollars and dates are killing agile finaldrewz lin
 
Transforming worst nightmare leader agile2012
Transforming worst nightmare leader   agile2012Transforming worst nightmare leader   agile2012
Transforming worst nightmare leader agile2012drewz lin
 
Top100summit 闵刚金蝶自动化测试发展之路 2
Top100summit  闵刚金蝶自动化测试发展之路 2Top100summit  闵刚金蝶自动化测试发展之路 2
Top100summit 闵刚金蝶自动化测试发展之路 2drewz lin
 
Servant leader greg hutchings agile 2012sm
Servant leader greg hutchings agile 2012smServant leader greg hutchings agile 2012sm
Servant leader greg hutchings agile 2012smdrewz lin
 
6 buffer overflows
6   buffer overflows6   buffer overflows
6 buffer overflowsdrewz lin
 

Viewers also liked (15)

Coaching ismorethantelling
Coaching ismorethantellingCoaching ismorethantelling
Coaching ismorethantelling
 
User driven development
User driven developmentUser driven development
User driven development
 
Dead codepresentation 0
Dead codepresentation 0Dead codepresentation 0
Dead codepresentation 0
 
16 exercises for part 3
16   exercises for part 316   exercises for part 3
16 exercises for part 3
 
Top100summit 陈辉-游戏测试平台 策划资源文件自动化测试体系
Top100summit 陈辉-游戏测试平台 策划资源文件自动化测试体系Top100summit 陈辉-游戏测试平台 策划资源文件自动化测试体系
Top100summit 陈辉-游戏测试平台 策划资源文件自动化测试体系
 
移动测试中心Bmtc
移动测试中心Bmtc移动测试中心Bmtc
移动测试中心Bmtc
 
Agile 2012 pitfalls in agile testing - paul carvalho
Agile 2012   pitfalls in agile testing - paul carvalhoAgile 2012   pitfalls in agile testing - paul carvalho
Agile 2012 pitfalls in agile testing - paul carvalho
 
Vision tool
Vision toolVision tool
Vision tool
 
Minidates otv-agile2012-final hr
Minidates otv-agile2012-final hrMinidates otv-agile2012-final hr
Minidates otv-agile2012-final hr
 
Testers role agile2012
Testers role agile2012Testers role agile2012
Testers role agile2012
 
Dollars and dates are killing agile final
Dollars and dates are killing agile finalDollars and dates are killing agile final
Dollars and dates are killing agile final
 
Transforming worst nightmare leader agile2012
Transforming worst nightmare leader   agile2012Transforming worst nightmare leader   agile2012
Transforming worst nightmare leader agile2012
 
Top100summit 闵刚金蝶自动化测试发展之路 2
Top100summit  闵刚金蝶自动化测试发展之路 2Top100summit  闵刚金蝶自动化测试发展之路 2
Top100summit 闵刚金蝶自动化测试发展之路 2
 
Servant leader greg hutchings agile 2012sm
Servant leader greg hutchings agile 2012smServant leader greg hutchings agile 2012sm
Servant leader greg hutchings agile 2012sm
 
6 buffer overflows
6   buffer overflows6   buffer overflows
6 buffer overflows
 

Similar to 基于Ht rca缺陷分析的测试改进-china test-张玲玲

Request Management
Request ManagementRequest Management
Request ManagementSun Wei
 
Web系统性能测试方案浅谈
Web系统性能测试方案浅谈Web系统性能测试方案浅谈
Web系统性能测试方案浅谈beiyu95
 
App operationattaobao-velocity2010 bj-final
App operationattaobao-velocity2010 bj-finalApp operationattaobao-velocity2010 bj-final
App operationattaobao-velocity2010 bj-finaliambuku
 
持续交付 Continuous delivery
持续交付   Continuous delivery持续交付   Continuous delivery
持续交付 Continuous deliverySun Wei
 
要质量还是要速度
要质量还是要速度要质量还是要速度
要质量还是要速度Lijie Wang
 
Lean startup 精益创业 新创企业的成长思维
Lean startup 精益创业 新创企业的成长思维Lean startup 精益创业 新创企业的成长思维
Lean startup 精益创业 新创企业的成长思维Jie Bao
 
QM-060-問題分析與解決能力提升
QM-060-問題分析與解決能力提升QM-060-問題分析與解決能力提升
QM-060-問題分析與解決能力提升handbook
 
Zhongxing practice-suchunshan-qcon
Zhongxing practice-suchunshan-qconZhongxing practice-suchunshan-qcon
Zhongxing practice-suchunshan-qconYiwei Ma
 
腾讯大讲堂39 数据运营规划理念及方法概要介绍
腾讯大讲堂39 数据运营规划理念及方法概要介绍腾讯大讲堂39 数据运营规划理念及方法概要介绍
腾讯大讲堂39 数据运营规划理念及方法概要介绍George Ang
 
体验的历程 Afooli
体验的历程 Afooli体验的历程 Afooli
体验的历程 AfooliAlite Yu
 
問題分析與解決 詹翔霖教授-核心幹部管理實務
問題分析與解決 詹翔霖教授-核心幹部管理實務問題分析與解決 詹翔霖教授-核心幹部管理實務
問題分析與解決 詹翔霖教授-核心幹部管理實務文化大學
 
敏捷软件测试之简介
敏捷软件测试之简介敏捷软件测试之简介
敏捷软件测试之简介Yi Xu
 
Top100summit 宗刚-全生命周期性能评估体系的实践
Top100summit 宗刚-全生命周期性能评估体系的实践Top100summit 宗刚-全生命周期性能评估体系的实践
Top100summit 宗刚-全生命周期性能评估体系的实践drewz lin
 
超理性使用者介面設計 - Data-driven A/B Testing
超理性使用者介面設計 - Data-driven A/B Testing超理性使用者介面設計 - Data-driven A/B Testing
超理性使用者介面設計 - Data-driven A/B TestingYing-Hsiang Liao
 
吴英杰:【用户行为分析】淘宝页面显微镜系统原理及实践
吴英杰:【用户行为分析】淘宝页面显微镜系统原理及实践吴英杰:【用户行为分析】淘宝页面显微镜系统原理及实践
吴英杰:【用户行为分析】淘宝页面显微镜系统原理及实践taobao.com
 
Part04 软件测试方法论
Part04 软件测试方法论Part04 软件测试方法论
Part04 软件测试方法论aellaw
 
敏捷自动化测试中的教训 45min 中文
敏捷自动化测试中的教训 45min   中文敏捷自动化测试中的教训 45min   中文
敏捷自动化测试中的教训 45min 中文Shuyong Lin
 

Similar to 基于Ht rca缺陷分析的测试改进-china test-张玲玲 (20)

Request Management
Request ManagementRequest Management
Request Management
 
Web系统性能测试方案浅谈
Web系统性能测试方案浅谈Web系统性能测试方案浅谈
Web系统性能测试方案浅谈
 
App operationattaobao-velocity2010 bj-final
App operationattaobao-velocity2010 bj-finalApp operationattaobao-velocity2010 bj-final
App operationattaobao-velocity2010 bj-final
 
持续交付 Continuous delivery
持续交付   Continuous delivery持续交付   Continuous delivery
持续交付 Continuous delivery
 
要质量还是要速度
要质量还是要速度要质量还是要速度
要质量还是要速度
 
Lean startup 精益创业 新创企业的成长思维
Lean startup 精益创业 新创企业的成长思维Lean startup 精益创业 新创企业的成长思维
Lean startup 精益创业 新创企业的成长思维
 
QM-060-問題分析與解決能力提升
QM-060-問題分析與解決能力提升QM-060-問題分析與解決能力提升
QM-060-問題分析與解決能力提升
 
Zhongxing practice-suchunshan-qcon
Zhongxing practice-suchunshan-qconZhongxing practice-suchunshan-qcon
Zhongxing practice-suchunshan-qcon
 
腾讯大讲堂39 数据运营规划理念及方法概要介绍
腾讯大讲堂39 数据运营规划理念及方法概要介绍腾讯大讲堂39 数据运营规划理念及方法概要介绍
腾讯大讲堂39 数据运营规划理念及方法概要介绍
 
体验的历程 Afooli
体验的历程 Afooli体验的历程 Afooli
体验的历程 Afooli
 
传媒梦工场分享
传媒梦工场分享传媒梦工场分享
传媒梦工场分享
 
問題分析與解決 詹翔霖教授-核心幹部管理實務
問題分析與解決 詹翔霖教授-核心幹部管理實務問題分析與解決 詹翔霖教授-核心幹部管理實務
問題分析與解決 詹翔霖教授-核心幹部管理實務
 
敏捷软件测试之简介
敏捷软件测试之简介敏捷软件测试之简介
敏捷软件测试之简介
 
Top100summit 宗刚-全生命周期性能评估体系的实践
Top100summit 宗刚-全生命周期性能评估体系的实践Top100summit 宗刚-全生命周期性能评估体系的实践
Top100summit 宗刚-全生命周期性能评估体系的实践
 
超理性使用者介面設計 - Data-driven A/B Testing
超理性使用者介面設計 - Data-driven A/B Testing超理性使用者介面設計 - Data-driven A/B Testing
超理性使用者介面設計 - Data-driven A/B Testing
 
8D process
8D process8D process
8D process
 
吴英杰:【用户行为分析】淘宝页面显微镜系统原理及实践
吴英杰:【用户行为分析】淘宝页面显微镜系统原理及实践吴英杰:【用户行为分析】淘宝页面显微镜系统原理及实践
吴英杰:【用户行为分析】淘宝页面显微镜系统原理及实践
 
例外處理設計
例外處理設計例外處理設計
例外處理設計
 
Part04 软件测试方法论
Part04 软件测试方法论Part04 软件测试方法论
Part04 软件测试方法论
 
敏捷自动化测试中的教训 45min 中文
敏捷自动化测试中的教训 45min   中文敏捷自动化测试中的教训 45min   中文
敏捷自动化测试中的教训 45min 中文
 

More from drewz lin

Web security-–-everything-we-know-is-wrong-eoin-keary
Web security-–-everything-we-know-is-wrong-eoin-kearyWeb security-–-everything-we-know-is-wrong-eoin-keary
Web security-–-everything-we-know-is-wrong-eoin-kearydrewz lin
 
Via forensics appsecusa-nov-2013
Via forensics appsecusa-nov-2013Via forensics appsecusa-nov-2013
Via forensics appsecusa-nov-2013drewz lin
 
Phu appsec13
Phu appsec13Phu appsec13
Phu appsec13drewz lin
 
Owasp2013 johannesullrich
Owasp2013 johannesullrichOwasp2013 johannesullrich
Owasp2013 johannesullrichdrewz lin
 
Owasp advanced mobile-application-code-review-techniques-v0.2
Owasp advanced mobile-application-code-review-techniques-v0.2Owasp advanced mobile-application-code-review-techniques-v0.2
Owasp advanced mobile-application-code-review-techniques-v0.2drewz lin
 
I mas appsecusa-nov13-v2
I mas appsecusa-nov13-v2I mas appsecusa-nov13-v2
I mas appsecusa-nov13-v2drewz lin
 
Defeating xss-and-xsrf-with-my faces-frameworks-steve-wolf
Defeating xss-and-xsrf-with-my faces-frameworks-steve-wolfDefeating xss-and-xsrf-with-my faces-frameworks-steve-wolf
Defeating xss-and-xsrf-with-my faces-frameworks-steve-wolfdrewz lin
 
Csrf not-all-defenses-are-created-equal
Csrf not-all-defenses-are-created-equalCsrf not-all-defenses-are-created-equal
Csrf not-all-defenses-are-created-equaldrewz lin
 
Chuck willis-owaspbwa-beyond-1.0-app secusa-2013-11-21
Chuck willis-owaspbwa-beyond-1.0-app secusa-2013-11-21Chuck willis-owaspbwa-beyond-1.0-app secusa-2013-11-21
Chuck willis-owaspbwa-beyond-1.0-app secusa-2013-11-21drewz lin
 
Appsec usa roberthansen
Appsec usa roberthansenAppsec usa roberthansen
Appsec usa roberthansendrewz lin
 
Appsec usa2013 js_libinsecurity_stefanodipaola
Appsec usa2013 js_libinsecurity_stefanodipaolaAppsec usa2013 js_libinsecurity_stefanodipaola
Appsec usa2013 js_libinsecurity_stefanodipaoladrewz lin
 
Appsec2013 presentation-dickson final-with_all_final_edits
Appsec2013 presentation-dickson final-with_all_final_editsAppsec2013 presentation-dickson final-with_all_final_edits
Appsec2013 presentation-dickson final-with_all_final_editsdrewz lin
 
Appsec2013 presentation
Appsec2013 presentationAppsec2013 presentation
Appsec2013 presentationdrewz lin
 
Appsec 2013-krehel-ondrej-forensic-investigations-of-web-exploitations
Appsec 2013-krehel-ondrej-forensic-investigations-of-web-exploitationsAppsec 2013-krehel-ondrej-forensic-investigations-of-web-exploitations
Appsec 2013-krehel-ondrej-forensic-investigations-of-web-exploitationsdrewz lin
 
Appsec2013 assurance tagging-robert martin
Appsec2013 assurance tagging-robert martinAppsec2013 assurance tagging-robert martin
Appsec2013 assurance tagging-robert martindrewz lin
 
Amol scadaowasp
Amol scadaowaspAmol scadaowasp
Amol scadaowaspdrewz lin
 
Agile sdlc-v1.1-owasp-app sec-usa
Agile sdlc-v1.1-owasp-app sec-usaAgile sdlc-v1.1-owasp-app sec-usa
Agile sdlc-v1.1-owasp-app sec-usadrewz lin
 
Vulnex app secusa2013
Vulnex app secusa2013Vulnex app secusa2013
Vulnex app secusa2013drewz lin
 
基于虚拟化技术的分布式软件测试框架
基于虚拟化技术的分布式软件测试框架基于虚拟化技术的分布式软件测试框架
基于虚拟化技术的分布式软件测试框架drewz lin
 
新浪微博稳定性经验谈
新浪微博稳定性经验谈新浪微博稳定性经验谈
新浪微博稳定性经验谈drewz lin
 

More from drewz lin (20)

Web security-–-everything-we-know-is-wrong-eoin-keary
Web security-–-everything-we-know-is-wrong-eoin-kearyWeb security-–-everything-we-know-is-wrong-eoin-keary
Web security-–-everything-we-know-is-wrong-eoin-keary
 
Via forensics appsecusa-nov-2013
Via forensics appsecusa-nov-2013Via forensics appsecusa-nov-2013
Via forensics appsecusa-nov-2013
 
Phu appsec13
Phu appsec13Phu appsec13
Phu appsec13
 
Owasp2013 johannesullrich
Owasp2013 johannesullrichOwasp2013 johannesullrich
Owasp2013 johannesullrich
 
Owasp advanced mobile-application-code-review-techniques-v0.2
Owasp advanced mobile-application-code-review-techniques-v0.2Owasp advanced mobile-application-code-review-techniques-v0.2
Owasp advanced mobile-application-code-review-techniques-v0.2
 
I mas appsecusa-nov13-v2
I mas appsecusa-nov13-v2I mas appsecusa-nov13-v2
I mas appsecusa-nov13-v2
 
Defeating xss-and-xsrf-with-my faces-frameworks-steve-wolf
Defeating xss-and-xsrf-with-my faces-frameworks-steve-wolfDefeating xss-and-xsrf-with-my faces-frameworks-steve-wolf
Defeating xss-and-xsrf-with-my faces-frameworks-steve-wolf
 
Csrf not-all-defenses-are-created-equal
Csrf not-all-defenses-are-created-equalCsrf not-all-defenses-are-created-equal
Csrf not-all-defenses-are-created-equal
 
Chuck willis-owaspbwa-beyond-1.0-app secusa-2013-11-21
Chuck willis-owaspbwa-beyond-1.0-app secusa-2013-11-21Chuck willis-owaspbwa-beyond-1.0-app secusa-2013-11-21
Chuck willis-owaspbwa-beyond-1.0-app secusa-2013-11-21
 
Appsec usa roberthansen
Appsec usa roberthansenAppsec usa roberthansen
Appsec usa roberthansen
 
Appsec usa2013 js_libinsecurity_stefanodipaola
Appsec usa2013 js_libinsecurity_stefanodipaolaAppsec usa2013 js_libinsecurity_stefanodipaola
Appsec usa2013 js_libinsecurity_stefanodipaola
 
Appsec2013 presentation-dickson final-with_all_final_edits
Appsec2013 presentation-dickson final-with_all_final_editsAppsec2013 presentation-dickson final-with_all_final_edits
Appsec2013 presentation-dickson final-with_all_final_edits
 
Appsec2013 presentation
Appsec2013 presentationAppsec2013 presentation
Appsec2013 presentation
 
Appsec 2013-krehel-ondrej-forensic-investigations-of-web-exploitations
Appsec 2013-krehel-ondrej-forensic-investigations-of-web-exploitationsAppsec 2013-krehel-ondrej-forensic-investigations-of-web-exploitations
Appsec 2013-krehel-ondrej-forensic-investigations-of-web-exploitations
 
Appsec2013 assurance tagging-robert martin
Appsec2013 assurance tagging-robert martinAppsec2013 assurance tagging-robert martin
Appsec2013 assurance tagging-robert martin
 
Amol scadaowasp
Amol scadaowaspAmol scadaowasp
Amol scadaowasp
 
Agile sdlc-v1.1-owasp-app sec-usa
Agile sdlc-v1.1-owasp-app sec-usaAgile sdlc-v1.1-owasp-app sec-usa
Agile sdlc-v1.1-owasp-app sec-usa
 
Vulnex app secusa2013
Vulnex app secusa2013Vulnex app secusa2013
Vulnex app secusa2013
 
基于虚拟化技术的分布式软件测试框架
基于虚拟化技术的分布式软件测试框架基于虚拟化技术的分布式软件测试框架
基于虚拟化技术的分布式软件测试框架
 
新浪微博稳定性经验谈
新浪微博稳定性经验谈新浪微博稳定性经验谈
新浪微博稳定性经验谈
 

基于Ht rca缺陷分析的测试改进-china test-张玲玲

  • 2. 目录 1 现状分析&问题提出 HT-RCA理论基础 2 HT-RCA工程方法 3
  • 3. 网上问题分析案例(1) • 这是需求还是BUG? – 某产品上传超大资源文件后系统重启失败,用户无法使用业 务。在测试根因分析后发现测试过程中产品测试人员曾经提 出此问题,但产品开发人员认为现网客户不会上传这么大的 文件,问题就此放过。测试根因分析结果是需求问题。  客户质量标准在哪里?  某产品上网后由于网络大量丢包,出现服务质量急剧劣化, 严重影响用户体验,被通报为网上事故。产品需求描述支持 x%丢包率,所以当丢包率超过需求要求则必然会影响业务。 测试根因分析认定非测试漏测问题。
  • 4. 网上问题分析案例(2)  第三方造成的问题也算系统BUG?  某产品因客户第三方备份平台异常,没有按照约定时间取走 文档,以至于磁盘空间满、待业务中断后才被用户发现、上 报事故。现网紧急启动放通机制、应用恢复。测试根因分析 结果是非系统问题。 • 这到底是不是人的问题? – 某产品上网后出现与第三方设备对接失败。测试根因分析结 果是测试人员执行不正确,改进措施:增强责任心、提高人 员技能。进一步交流发现:该产品对接接口中有N个相似含义 字段、且取值各不同,例:A接口0代表OK,而B接口则1代表 OK,测试人员执行过程中以为自己是对的,但实际上记错了、 搞混了。
  • 5. 根因分析( RCA)概述 •发生的根本原因? 问题理解 •主要工具:鱼骨图、因 果图、5Why、故障树分析 •发生了什么? 等 •主要工具:流程图、 问题原因分析 •原固多方面多层次,根 时序图、关键事件检 因可能不止一个 查单等 •怎么消除并避免同类 •问题准确定义是关键 •为什么会发生? 根原因分析 问题不再发生? •主要工具:脑力风暴、 •主要工具:六顶思考 散点图、帕拉图、关系 帽、脑力风暴 图、亲和图 改进措施 •可能还需要相关数据 收集和分析 • 质量管理工具,通用的问题根因分析模型,应用广泛 • 属于逆向工程,通过RCA寻求问题解决方案,多应用于管 理或过程改进 • 对于软件系统来说,软件程序是由人写的,人注定会犯 错,缺陷注定会发生。通过缺陷根因分析减少缺陷发生
  • 6. 缺陷根因分析现状  如何进行缺陷内容的测试经验提取和长效改进  来源于客户问题是一个给我们的回馈,如何最大化的有效利用、固化经验?  对缺陷分析多数停留在度量、测试策略上应用,对于每个缺陷内容有零度分析, 但不系统,且也缺少分层。  缺陷根因分析模型如何凸现测试特点  多数落脚在测试流程或测试活动的某个方面  对于测试技术专门性的分析不足  人因错误如何分析与改进  对人因不分析或笼统的加以归类(例:测试技能不足),并没有作进一步的细致分析  对人因错误改进缺少工程化的考虑
  • 7. 目录 1 现状分析&问题提出 HT-RCA理论基础 2 HT-RCA工程方法 3
  • 8. BUG是怎么发现的? •产品需求 标准 •历史版本的做法 •相似产品的做法 •质量属性标准 •用户使用习惯 操作 配置 观察 评价 •客户的价值取向 BUG (图示参考:《软件测试经验与教训》) • 图示BUG可以定义为:在特定配置下对特定系统进行特定操作,将观察到的信息 与标准加以比对、并作出评价,如果发现偏差即作为BUG提出 • 百度定义:在电脑系统或程序中,隐藏着的一些未被发现的缺陷或问题统称为 bUG。 • BUG是一种感知。有不同期望的人对BUG的感知是不一样的。
  • 9. 如何客户知道BUG而我们不知道? 测试标准 操作 配置 观察 评价 测试场景与客户场景的偏差 测试场景 VS. BUG VS. 测试标准与客户标准的偏差 测试发现 客户发现 客户标准 操作 配置 观察 评价 客户场景 BUG
  • 10. 人为什么会犯错? BUG 测试经验 自上而下 经验 知识 技能 (应该是什么) 决 主观期望 策 记忆 知觉 记忆 思维 认 知觉 思维 知 注意 感觉 注意 感觉 测试对象 信息收集 自下而上 测试对象 (是什么) (图示:人脑信息加工模型) ■ 人脑是一个功能不确定的黑盒系统,受系统容量、负荷、处理能力/效率、知识经验等因素影响 ■ 人脑信息加工的各个环节均可能出现错误:错觉、选择性注意、心理模型(期望与倾向)、认知偏差 (记忆、知觉、思维)等 ■ 自上而下加工的主观期望是影响测试结果客观性、造成错误的主要原因
  • 11. 人的错误与偏见(1) • 证实倾向。对于规则或假设,人更倾向于去证实它们,而很少去证伪它们。 【四卡片选择作用】卡片一面写用字母、另一面写有数字。有规则“若卡片的一面是元音字母,则 另一面是偶数”。如果要证明该规则,需要翻看哪些卡片 E F 4 7 12 • 情景倾向。人对观察到的信息作出解释时依赖于所处的场景。 A 1 C 3 • 错觉。人对观察到的信息可能信息组织方式等原因作出错误的理解。 14 • 选择性注意。人只会注意到新异和自己关注的信息。人更易于关注和选择那些与形成 的产品经验相关的测试结果,而忽略那些自己经验之外的测试结果。 • 信息不确定性。如果信息有歧义、模糊,则不同人可能产生不同结果解释(双歧图形)
  • 12. 人的错误与偏见(2)  思维定势。活动前的心理准备状态。当一个操作重复多次后,人习惯于以此操作结果 作为后续操作的心理预期。例:某个错误对话框反复出现多次后就认为它是合理的。 【示例】九点连线问题  功能固着。人将某种功能赋予某个实体后,在后续很难改变原有的看法。例:当我们对一 个功能很熟悉时,测试时就会按固有的操作方式、而不会进行多样化测试。  认知狭窄。人为支持事先设定的假设收集证据,将不确定信息当作支持性信息。  可用性倾向。在人的头脑中想到用户以某种场景进行操作,更可能认为这种操作更常 出现、并以此对观察结果作出解释。  最初印象偏见。人相对信任所做的第一次观察。刚开始收集信息更大权重。  最近印象偏见。人相对信任所做的最近一次观察。  情境意识降低。人对事故等意外事件发生情境的意识水平降低。例:大脑过负荷。  记忆偏差。由于信息易混淆及记忆组块限制,人在提取大脑存储信息加工时出现偏差。
  • 13. 目录 1 现状分析&问题提出 HT-RCA理论基础 2 HT-RCA工程方法 3
  • 14. HT-RCA模型介绍 BUG特征分析 测试根因分析 问题根因 故障模式 测试流出原因 现象 客户场景 人因错误 客户标准 测试技术原因 问题 直接原因 固化与改进 (启动时机:上游问题根因已清楚) 公有经验 公有改进 私有经验 私有改进  强化了面向客户的BUG特征多维度分析、对问题内容信息的深度提取和利用。  增强了测试技术原因和人因错误分析,对问题根因的多方面分析和改进识别。  从公有和私有2级进行经验提取和测试改进。
  • 15. BUG特征分析 测试根因分析 固化与改进 BUG特征分析:故障模式分析 (人为) 错误 引入 引入 (人为) 激活 缺乏 …… 缺乏 失效 缺陷 故障 故障 错误 容错 容错 引入 (第三方) 故障 XX系统 → (抽象化) → 故障模式 →(实例化) → YY系统 术语 特征 定义 错误 (人-)动作-(XX)对象 人针对特定的对象所做的特定动作 缺陷 (XX)对象-(XX)状态 从特定程序对象角度阐述,体现为静态存在 故障 (XX)实体-(XX)状态 从系统角度阐述,体现为运行状态.故障-旦激活后则可以反复传递 失效 (XX)业务-(XX)状态 从用户角度阐述,体现为所用户体验的业务状态
  • 16. BUG特征分析 测试根因分析 固化与改进 BUG特征分析:故障模式分析 【示例】由于用户申请的license文件中缓存消息数一项参数设置过大,导致XX 系统内存分配出现异常,造成该节点频繁coredown,影响正常业务处理 【分析】 人为错误:用户 XX参数设置过大 故障1: XX系统 内存分配异常 故障2: XX节点 频繁coredown 失效: XX业务 不能正常使用
  • 17. BUG特征分析 测试根因分析 固化与改进 BUG特征分析:客户场景分析 客户场景 操作 配置 用户行为 接口操作 数据配置 运行环境 个体行为 群体行为 数据量 数据分布 组网配置 参数配置 协议特征 用户特征 设置硬件 设置软件 设置核心 业务参数 系统参数 用户数 操作序列 业务量 业务模型 配置 配置 参数配置  分析客户场景与测试场景的偏差,例:用户的使用习惯、用户与系统的交互模式、哪些操作和 配置场景会引起业务失效,逐步建立起客户场景信息库。  通过场景分类树的方法,将场景层层挖掘深入下去、不断填充细节。
  • 18. BUG特征分析 测试根因分析 固化与改进 BUG特征分析:客户场景分析 【示例】某页面C桉钮只可能操作一次,因为页面在操作后桉钮自动变成不可点击。现场 在操作之前,同时打开了两个IE窗口。在其中一个IE窗口上点击操作保存数据后,又 在另外一个IE窗口上再次执行相同操作,导致第一次正确数据被覆盖,引发业务失效。 【分析】这个案例中属于典型的用户操作序列问题:打开IE页面A →打开IE页面B →在 页面A点击桉钮C →在页面B点击桉钮C IE页面1 IE页面2 服务器 打开IE页面1, 老 获取老数据X 数 打开IE页面2, 据 获取老数据X X 点击按钮C, 新 生成新数据Y 数 据 点击按钮C, Y 生成脏数据Z 脏 数 业务中断 据 Z
  • 19. BUG特征分析 测试根因分析 固化与改进 BUG特征分析:客户标准分析 ⑤ ① 测试标准-需求规格 ② 客户标准-测试标准 ③ 测试标准-客户标准 客 测 ④ 三者一致 户 试 需 求 ⑤ 未知 标 标 准 准 规 格 ② ① ④ ③  理想状况下,测试标准应是严于客户标准且又涵盖客户标准。  从问题发生过程的因果链出发,针对一个具体的错误场景,N-Then方法进行层层推进,不断明 晰问题的结果影响、客户所使用的合格判据、背后所承载的真实期望,从中提取出测试标准。  对于共性问题按质量属性领域可以进一步抽取出通用的测试标准
  • 20. BUG特征分析 测试根因分析 固化与改进 BUG特征分析:客户标准分析 【示例】某版本修改引人问题导致数据库空间满,但由于告警失败,问题到当天下午才被发现、 规避,导致300O多个用户受到影响,多个用户投诉,客户认为我们的系统可靠性比较低,无法 及时暴露系统的异常运行状态。改进措施为:增加数据库空间满的告警。 【分析】针对问题发生过程,可以描述成: GIVEN 数据库空间满 THEN 未上报告警 THEN 问题未发现 THEN 数据库运行状态异常 THEN 用户业务受影响、失效 根据问题发生过程,还原客户的期望: IF 数据库空间满 THEN 糸统上报告警 THEN 问题及时被发现 THEN 处理该告警、数据库运行状态恢复正常 THEN 用户业务正常、未受影响 客户的真实期望是:问题及时被发现、被处理,不造成业务失效。 进一步设想:如果没有告警,以短信通知等其它方式确保问题被发现被处理是否也可以?
  • 21. BUG特征分析 测试根因分析 固化与改进 测试根因分析:测试流出原因 测试遗漏 用例有 用例无 已执行 未执行 方案有 方案无 执行策略 执行策略 设计策略 设计策略 已发现 未发现 有 有 无 无 测试依据 测试依据 有 无  测试过程回放,从测试流程中寻找缺失的缺陷控制点。  找到测试流出环节后还可以进一步细化分析。例:”用例无“指的是:无这个用例 or 用例内容残缺不全,测试点/观察点缺失
  • 22. BUG特征分析 测试根因分析 固化与改进 测试根因分析:测试人因分析 疏漏  无意漏做某些行为(选择性注意、意识) 无意的 失误  无意、行为选择出现错误(记忆、感觉、人机交互) 人因差错 知识性错误  知觉错误、错误理解(知觉) 错误 有意的 规则性错误  选择了错误的if-then规则(记忆、思维) 违规  有意不按规定行为  基于SRK模型(技能Skill, 规则Rule, 知识Knowlege )  违规主要体现在系统操维护层面
  • 23. BUG特征分析 测试根因分析 固化与改进 测试根因分析:测试人因分析 【示例】 测试流出原因是功能用例执行的测试人因分析 【分析】 用例执行遗漏 理解用例意义 不知道用例意义 按用例执行 有意不按 没有看到 没有理解 太复杂 用例执行 用例说明 用例含义 用例不可执行 (缺方法等) 用例描述 用例执行信息 执行时 用例参考 填写地方不当 注意力分散 信息不全 过于含糊 用例长得 差不多、疲劳 测试目的等 缺少产品 用例属性不明确 背景知识
  • 24. BUG特征分析 测试根因分析 固化与改进 测试根因分析:测试技术原因 质量 能力 测试技术直接根因 测试技术直接规避 测试技术间接根因 效率 测试技术领域 公共设施 测试用例/测试场景/测试环境的建设 功能 测试设计/测试执行/自动化/测试评估的方法/工具 DFX 性能/安全/可靠性/可测试 的 基线/方法/工具/评估
  • 25. BUG特征分析 测试根因分析 固化与改进 测试根因分析:测试技术分析 【示例】测试流出原因是功能用例执行遗漏的测试技术原因分析 【分析】 要素 了解&分析 操作 •是否有办法构造测试场景? (能力) •操作场景人工构造过程是否繁琐、易于出错? (质量) •操作场景构造效率如何、是否相应工具支撑? (效率) •执行工具是否易于使用、所构造场景是否满足操作需要? (质量) 配置 •是否有办法、有手段进行测试条件配置? (能力) •人工配置过程是否繁琐、易于出错? (质量) •配置正确性是否易于检查? (质量) •配置效率如何、是否有相应工具支撑? (效率) 观察 •是否相应的输出信息都有手段可以观察到? (能力) •输出信息通过人工是否易于观察和理解? (质量) •是否观察点多、分散、是否有工具统一观察信息收集? (效率) 评价 •是否所有荻得的观察信息可以分析和比对? (能力) •是否所获得的观察信息通过人工易于分析和比对、不易出错?(质量) •结果分析和比对效率如何、是否有相应工具支撑? (效率)
  • 26. BUG特征分析 测试根因分析 固化与改进 固化与改进:总体改进思路 产品测试用例库 测试用例基线 必测用例集 网上问题用例集 测试经验库 技术规划与改进 故障模式 故障模式 测试流出原因 测试技术 用户行为 客户场景 测试技术原因 测试工具 组网配置 客户标准 人因错误 测试流程 测试标准 HT-RCA分析 测试人员能力提升 知识技能 测试思维 测试意识 ……
  • 27. BUG特征分析 测试根因分析 固化与改进 固化与改进:经验固化方案 测试方法 测试特性 测试类型 测试经验库 测试属性 测试目的 测试阶段 测试场景 测试级别 测试标准 …… 测试策略&过滤机制 静态检查&评审 用例基线库建设 测试用例设计 测试设计评审
  • 28. BUG特征分析 测试根因分析 固化与改进 固化与改进:测试思维 目的 结论 问题 观念 思考要素 概念 推论 信息 假设 应该把独立思考和综 自检 合判断的能力放在首位,而 批判思维 比对 准确、明确、深度、重要、 公正、 非获得特定知识的能力。 清楚的 过程 相关的 有逻辑的 有广度的 —爱因期坦
  • 29. BUG特征分析 测试根因分析 固化与改进 固化与改进:人因工程 •知觉原则 •任务分配给人还是 •注意原则 机器 •心理模型原则 •减少人为不确定性 •记忆原则 新手 以用户为中心 知识型 专家型 •反应预期 •显示-控制相容 •使系统与真实世界匹配 •反馈 •一致性与标准 •通道 •系统状态可见 •用户控制与自由 •错误预防、识别与纠正 •使用灵活性和效率 有效、安全、舒适! •简洁和审美上的完整 ……