分类存档: 管理

animatecc添加sdk

打开animatecc,在管理->帮助->管理adobesdk->+,添加sdk路径

adobe air runtime下载:https://airsdk.harman.com/runtime
adobe air sdk下载:https://airsdk.harman.com/

vultr上centos7建站需要打开80端口

vultr 实例中配置firewall选项,添加tcp 22和80端口
centos7 防火墙添加端口
firewall开启80端口
远程登录到vps,查看firewall防火墙版本。

firewall-cmd –version

0.4.4.4

查看firewall防火墙的状态。提示正在运行。

firewall-cmd –state

running

在firewall中添加80,443端口的权限。提示成功。

firewall-cmd --zone=public --add-port=80/tcp --permanent

firewall-cmd --permanent --zone=public --add-port=443/tcp

success

命令含义:
–zone #作用域
–add-port=80/tcp #添加端口,格式为:端口/通讯协议
–permanent #永久生效,没有此参数重启后失效
重启防火墙,这里开启80端口即可。

systemctl restart firewalld
附:firewall其他命令:
启动:# systemctl start firewalld
重启:# systemctl restart firewalld
查看状态:# systemctl status firewalld 或者 firewall-cmd –state
停止:# systemctl disable firewalld
禁用:# systemctl stop firewalld

firewall-cmd –reload #重启firewall
systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall开机启动
firewall-cmd –state #查看默认防火墙状态(关闭后显示notrunning,开启后显示running)

https阿里云续期即ssl证书更新

https阿里云续期

https://help.aliyun.com/document_detail/28544.html?spm=a2c4g.11186623.2.7.26583f1fmhfisC#concept-bty-rfp-ydb

ssl证书更新
https://yundunnext.console.aliyun.com/?spm=a2c4g.11186623.2.10.3f0c7cc4N8XBdt&p=cas#/overview/cn-hangzhou

新买免费ssl证书
https://yundun.console.aliyun.com/?spm=5176.7968328.J_8413632810.1.5e9765c3FS9M11&p=cas&showBuy=1#/certExtend/free

https://www.aliyun.com/product/cas
ps:选单域名,dv免费省银子

风变编程服务使用协议

《风变编程服务使用协议》

第一条【协议充分了解】
请您(以下亦称“用户”)仔细阅读本协议全部条款,并确认您已完全了解本协议之规定。未成年人应当在监护人陪同和指导下阅读本协议,并在使用本协议项下服务前取得监护人的同意。请您审慎阅读并选择接受或不接受本协议。除非您接受本协议所有条款,否则您无权注册、登录或使用本协议所涉服务。您的注册、登录、使用等行为将视为对本协议的接受,并同意接受本协议各项条款的约束,本协议将构成您与风变科技(深圳)有限公司及其关联方(以下简称“风变编程”)之间关于您使用风变编程开发及运营的风变编程网站和软件应用(以下简称“‘风变编程’产品”)有约束力的法律文件。
本协议内容包括本协议正文及“风变编程”通过“风变编程”产品已经发布的或将来可能发布的各类规则。所有规则为本协议不可分割的组成部分,与协议正文具有同等法律效力。

第二条【用户充分授权】
您确认您依照中国法律法规及您所在地之法律及您自愿或应当接收其管辖之法律,有权签署并同意接受本协议的约束。如果您代表您的雇主或单位,您确认并保证您已获得签署本协议的充分授权。

第三条 【协议变更修改】
本协议(包括任何规则)如果变更,“风变编程”将尽可能提前在“风变编程”产品中发布通知。但您应了解并同意,“风变编程”有可能未经事先通知,而修改或变更本协议的全部或部分内容,您也应随时关注本协议是否有修改或变更之情形。如果本协议修改或变更,而您不能接受修改或变更后的内容,您应立即停止使用“风变编程”相关产品和服务。如果您继续使用“风变编程”相关产品和服务,则表明您完全接受并愿意遵守修改或变更后的本协议。无论您停止使用或继续使用“风变编程”相关产品和服务,您都承诺不因本协议修改或变更而向“风变编程”要求赔偿或补偿或提出其他权利主张。

第四条 【提供服务的方式】
“风变编程”是网络服务提供者,可针对不同传播渠道用户为其提供内容服务,前述传播渠道包括但不限于:
1) 通过“风变编程”的产品及服务;
2)“风变编程”提供的可以使用的其他传播渠道。 除免费服务外,“风变编程”可能提供部分收费服务。您可以通过付费方式购买收费服务,具体方式为:通过网上银行或其他“风变编程”产品内提供的其他付费途径支付一定数额的人民币,从而获得收费服务使用权限。对于收费服务,“风变编程”会在您使用之前给予明确的提示,只有根据提示确认同意按照前述支付方式支付费用并完成了支付行为,才能使用该等收费服务。支付行为的完成以银行或第三方支付平台生成“支付已完成”的确认通知为准。您应了解“风变编程”相关产品和服务可能对该等服务(含收费服务)进行更改、更新或升级,您同意不因“风变编程”更改、更新或升级其服务而向“风变编程”要求赔偿或补偿或提出其他权利主张。

第五条【善意合法使用】
您同意,遵守法律及本协议规定,秉承善意使用“风变编程”相关产品及服务,且保证:
1)不会利用“风变编程”相关产品及服务进行非法活动、或进行可能侵犯他人权利或损害他人利益的活动;不会以非法方式获取或利用“风变编程”产品及服务其他用户的信息。
2)不会以技术方式攻击或破坏或改变“风变编程”产品及服务的部分或全部、或干扰其运行;不会以非法方式获取或使用“风变编程”产品及服务的任何软件、代码、内容或其他技术或商业信息;不会对“风变编程”产品及服务运行的任何程序进行反向工程、反向编译、反向汇编或改写。
3)不会未经许可使用“风变编程”的网站名称、公司名称、商标、商业标识、网页版式或内容、或其他由“风变编程”享有知识产权或权利的信息或资料;不会侵犯“风变编程”的商标权、著作权、专利权、技术秘密、其他知识产权或其他合法权利或权益。不会以任何方式贬损“风变编程”的商业声誉。
4)不会利用“风变编程”进行其他违背公序良俗的活动。您使用“风变编程”产品及服务的记录,可能被保存作为对您不利的证据。“风变编程”也可能将您违反法律或侵犯第三方权利或权益的记录报告给行政主管部门、司法机关。
您理解并保证您在“风变编程”产品中上传、发布或传输的信息、内容(包括您的账户名称等信息)应当遵守宪法、法律和行政法规,不得含有以下内容,否则,“风变编程”将立即停止传输该信息,采取消除等处置措施,防止信息扩散,保存有关记录,并向有关主管部门报告:
1)反对宪法确定的基本原则的;
2)危害国家统一、主权和领土完整的;
3)泄露国家秘密、危害国家安全或者损害国家荣誉和利益的;
4)煽动民族仇恨、民族歧视,破坏民族团结,或者侵害民族风俗、习惯的;
5)宣扬邪教、迷信的;
6)扰乱社会秩序,破坏社会稳定的;
7)诱导未成年人违法犯罪和渲染暴力、色情、赌博、恐怖活动的;
8)侮辱或者诽谤他人,侵害公民个人名誉、隐私、知识产权和其他合法权益的;
9)危害社会公德,损害民族优秀文化传统的;
10)有关法律、行政法规和国家规定禁止的其他内容。
如果您上传、发布或传输的信息、内容含有以上违反法律法规的信息或内容,或者侵犯任何第三方的合法权益,您将直接承担以上导致的一切不利后果。如因此给“风变编程”造成不利后果的,您应负责消除影响,并且赔偿“风变编程”因此导致的一切损失,包括且不限于财产损害赔偿、名誉损害赔偿、律师费、交通费等因维权而产生的合理费用。

第六条 【注册用户账号】
您需要在“风变编程”产品中注册一个账号,并按照“风变编程”产品公示的要求进行账号设置,才可以使用该账号登录并使用“风变编程”相关产品和服务。您必须是拥有完全民事行为能力的民事主体,提供的信息必须真实合法,遵守法律法规及平台的管理规定;未成年人注册及使用“风变编程”产品须取得监护人的同意。如您违反上述注册规定,因此导致的法律后果、损失、责任将由您自行承担。您可依照“风变编程”产品公示的规则修改您的账号密码,但不可修改账号。 您注册账号时,应按照“风变编程”产品公示的提示及要求填写或提供资料、信息,并确保用户身份及信息的真实性、正确性及完整性;如果资料发生变化,您应及时更改。 您同意并承诺:
1)不故意冒用他人信息为您注册帐号;
2)不未经他人合法授权以他人名义注册帐号;
3)不使用色情、暴力或侮辱、诽谤他人等违反公序良俗的词语注册帐号。
如您违反前述规定,“风变编程”有权随时拒绝您使用该账号,或者限制您使用,或者注销该账号。

第七条 【用户账号使用】
在您完成账号注册后,“风变编程”将向您提供账号及初始登录方式,此后,您应自行保管及维持密码及账号的安全。您应自行使用该账号,并对该账号项下发生的一切行为及活动负完全的责任。您应了解,在账号和密码匹配时,“风变编程”无法对非法或未经您授权使用您账号及密码的行为作出甄别,因此,“风变编程”对任何使用您账号和密码登录并使用“风变编程”产品及服务的行为不承担任何责任。您同意并承诺:

1)当您的账号或密码遭到未获授权的使用,或者发生其他任何安全问题时,您会立即有效通知到“风变编程”;
2)当您每次上网或使用其他服务完毕后,会将有关账号等安全退出。“风变编程”有权根据自己的判定,在怀疑账号被不当使用时,拒绝账号使用或限制账号使用或注销该账号。除有使用期限的付费服务以外,如您连续180天未以账号登录“风变编程”产品,则“风变编程”有权根据自己的判定,注销该账号且无需事先向您发送通知。
您知悉并同意,您仅得依据本协议享有对“风变编程”产品账户及相关功能、服务的使用权,您仅能为自身学习、技术交流等非营利性目的使用账户及功能、服务;您不得出于任何非法或未经“风变编程”授权的目的使用账户或“风变编程”产品提供的功能、服务,包括但不限于,不得恶意注册账号(无论是否以营利为目的),不得利用账户或“风变编程”产品提供的功能、服务从事营利活动,不得以营利或非营利目的以任何方式(包括但不限于转让、借用、出租、共享等)向任何第三方提供账户使用权或“风变编程”产品提供的功能、服务或其任何部分,不得利用账户或“风变编程”产品提供的功能、服务从事任何违法或侵犯第三方知识产权或其他合法权益的活动,否则“风变编程”有权追究您的责任,且由此产生的一切责任均由您承担。

第八条 【发表言论】
用户在使用“风变编程”注册账号后,应遵守法律法规、社会主义制度、国家利益、公民合法权益、公共秩序、社会道德风尚和信息真实七条底线,不得在使用“风变编程”产品及服务时发表、传播、存储含有以下任何内容的信息:
1)违反宪法或法律法规规定的;
2)危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一的;
3)损害国家荣誉和利益的,损害公共利益的;
4)煽动民族仇恨、民族歧视,破坏民族团结的;
5)破坏国家宗教政策,重扬邪教和封建迷信的;
6)散布谣言,扰乱社会秩序,破坏社会稳定的;
7)散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪的;
8)侮辱或者诽谤他人,侵害他人合法权益的;
9)含有法律、行政法规禁止的其他内容的;
10)含有“风变编程”认为不适合在“风变编程”产品及服务中发表的其他内容的。

第九条 【个人信息及隐私条款】
“风变编程”收集、存储、使用、处理用户个人信息将遵守相关法律法规,收集、使用个人信息将遵循合法、正当、必要的原则。“风变编程”可能需要搜集能识别用户身份的个人信息以便可以在必要时联系用户,或为用户提供更好的使用体验。“个人信息”包括但不限于用户的姓名、性别、年龄、出生日期、联系电话、身份证号、地址、受教育情况、公司情况、所属行业、兴趣爱好、所处位置信息、个人说明、手机软硬件信息、手机识别码等。“风变编程”承诺,不以非法方式披露您依照“风变编程”规定的方式标明应予保密的用户个人信息。
您了解并同意,“风变编程”可依照法律或司法、行政机关的强制性命令披露您的个人信息且无需事先向您发出通知。您了解并同意,当您在“风变编程”产品中购买第三方商品或服务时,您的信息将被提供给该等商品或服务的提供方,以便其向您提供产品或服务,您与该等第三方商品或服务提供方之间的隐私保护事项由您与该等第三方商品或服务提供方自行解决,“风变编程”不因向该等第三方商品或服务提供方提供您的个人信息而向您承担任何责任。
您了解并同意,除为提供或改进“风变编程”产品及服务合理所需以外,“风变编程”在下述情形下可利用您的个人信息:
1)在紧急情况下,为维护用户及公众的权益。
2)为维护“风变编程”的著作权、商标权、专利权及其他任何合法权利或权益。
3)在进行促销或抽奖时,“风变编程”可能会与赞助商共享用户的个人信息,在这些情况下“风变编程”会在发送用户信息之前进行提示,并且用户可以通过明确表示不参与活动而终止传送过程。
4)为获取第三方数据而将用户信息与第三方数据匹配。
5)将用户数据用于统计,以便向未来的合作伙伴、广告商及其他第三方以及为了其他合法目的而描述“风变编程”的服务。

第十条 【知识产权】
“风变编程”对“风变编程”相关产品和服务及“风变编程”所使用的软件所包含的受知识产权法或其他法律保护的对象享有相应的权利。“风变编程”产品及服务的整体内容及其任何部分(包括但不仅限于网站设计、程序、代码、设计图样以及其他图样、产品及服务名称)的版权、商标权及其他知识产权归“风变编程”享有,任何人不得使用、复制或用作其他用途。经由“风变编程”产品及服务传送的文字、图片、音频、视频及其他内容,受到著作权法、商标法、专利法或其他法律的保护;未经相关权利人书面授权许可,您不得自行或许可第三方进行使用、修改、出租、售卖、传播、衍生其他作品或进行任何其他使用或处分。 “风变编程”对其专有内容、原创内容和其他通过授权取得的内容享有知识产权或相应权利。未经“风变编程”书面许可,任何单位和个人不得私自转载、传播和提供“风变编程”提供的服务或者实施任何其他侵犯“风变编程”知识产权的行为,否则,“风变编程”将依法追究相关法律责任。 为了促进知识的分享和传播,您同意将在“风变编程”产品上发表的全部内容(包括但不仅限于留言、评论和笔记),授予“风变编程”免费的、不可撤销的、非独家使用许可权,“风变编程”有权将该内容用于“风变编程”各种形态的产品和服务上,包括但不限于“风变编程”已经或未来发布的应用或其他互联网产品。您在“风变编程”产品上传或发表的内容,应保证您为著作权人或已取得合法授权,并且该内容不会侵犯任何第三方的合法权益。如果第三方提出关于著作权的异议,“风变编程”有权根据实际情况删除相关的内容,且有权追究用户的法律责任,给“风变编程”或任何第三方造成损失的,用户应负责全额赔偿。 “风变编程”有权对您发布的内容进行审核,有权根据相关证据结合《侵权责任法》、《信息网络传播权保护条例》等法律法规及“风变编程”公开的原则对侵权信息进行处理。

第十一条 【链接使用】
为方便您使用,“风变编程”可能会提供第三方国际互联网网站或资源链接。您应了解,除非另有声明,“风变编程”无法对第三方网站服务进行控制。您因下载或传播或使用或依赖上述网站或资源所生的损失或损害,应由您与第三方网站或相关责任方解决或处理,“风变编程”不承担任何责任。

第十二条 【有限责任及免责条款】
“风变编程”按照“风变编程”产品及服务的“现状”向用户提供产品及服务,“风变编程”不对“风变编程”产品及/或其功能、服务作出任何其他明示或暗示的保证。 对经由“风变编程”产品取得的任何产品、服务(含收费服务)或其他材料可能不符合您的期望;基于不同用户的个人特征和喜好,“风变编程”产品中可能存在一些让您不快、厌恶或难以接受的内容;“风变编程”不因前述情形向您承担任何责任。 用户在“风变编程”上进行的任何行为均是用户的个人行为,由于信息的海量性,“风变编程”无法对信息或内容的权属、合法性、合规性、真实性、科学性、完整权、有效性等进行审查。因用户行为或用户上传、存储、发布、传播的任何信息、内容等引发的任何争议、责任,或由此产生的任何直接、间接、偶然、特殊的损害,均由用户自行承担法律责任,“风变编程”不承担任何责任;如用户行为对“风变编程”造成损失或不良影响,“风变编程”保留追究相关用户法律责任的权利。 “风变编程”对用户所发布信息的删除或储存失败不承担任何法律责任。
不论在何种情况下,“风变编程”均不对由于互联网连接故障,电力故障,罢工,劳动争议,暴乱,起义,骚乱,火灾,洪水,风暴,爆炸,不可抗力,战争,政府行为,国际、国内法院的命令,黑客攻击,互联网病毒,网络运营商技术调整,政府临时管制或任何其他“风变编程”不能合理控制的原因而造成的“风变编程”产品不能访问、产品及服务中断、信息及数据的延误、停滞或错误,不能提供或延迟提供服务而承担责任。 不论是否可以预见,不论是源于何种形式的行为或不作为,“风变编程”不对因任何原因造成的任何特别的、间接的、惩罚性的、突发性的或其他任何损害(包括但不限于利润或其他可得利益的损失)承担责任。除“风变编程”因故意或重大过失损害用户的利益以外,任何情况下,“风变编程”向用户承担的赔偿、补偿或其他任何责任的限额将不超过该等用户就相关服务向“风变编程”支付的服务费用的数额。 基于互联网的开放性属性,用户知悉用户将信息、内容等上传到互联网上,可能会被其他组织或个人复制、转载、修改或进行其他使用(包括用于非法用途),用户必须充分意识到此类风险的存在。用户同意使用“风变编程”产品过程中所存在的上述风险将完全由用户自行承担,“风变编程”对此不承担任何责任。

第十三条 【“风变编程”的商业活动】
您了解并接受,“风变编程”为维护其运营所经营,可能进行下述商业活动:
1) 通过电子邮件、客户端、网页或其他合法方式向用户发送商品促销或其他相关商业信息。
2) 通过增值服务系统或其他方式向用户发送的相关服务信息或其他信息,其他信息包括但不限于通知信息、宣传信息、广告信息等。如您不同意收取此类信息,您可以选择退订相关信息。

第十四条 【非商业使用】
您同意,仅以非商业目的使用“风变编程”产品及服务;不对“风变编程”产品及服务的任何部分或全部进行商业性质利用、复制、拷贝、出售、调查、广告,或将“风变编程”产品及服务用于其他任何商业目的或商业性质的活动;但“风变编程”与您另行签订有协议或“风变编程”另行指定可供您使用的特定商业服务除外。

第十五条 【运行维护】
“风变编程”尽可能保证“风变编程”产品及服务的稳定运行。您应理解并同意,因系统维护、升级、调整,第三方原因如通讯设备故障、计算机病毒或黑客攻击、技术问题、网络、电脑故障、系统不稳定性、台风、地震、海啸、洪水、停电、战争、恐怖袭击、法律、政策、政府管制及其他各种不可抗力或“风变编程”无法合理控制的原因而引发的以下情况及因此导致的一切损失,“风变编程”不承担责任:
1)“风变编程”产品或服务无法使用或中断使用或无法完全适合用户的使用要求。
2)“风变编程”产品或服务受到干扰,无法及时、安全、可靠运行,或出现任何错误。
3)经由“风变编程”产品或服务取得的任何产品、服务(含收费服务)或其他材料不符合您的期望。
4)用户资料遭到未经授权的使用或修改。
“风变编程“对账号上所有服务将尽力维护其安全性、方便性和适用性,但对非因“风变编程”的故意或重大过失,用户资料遭到未经授权的使用或修改不承担责任。 “风变编程”不对您在本协议项下服务中相关数据的删除或储存失败负责。“风变编程”可以根据实际情况自行决定用户在本服务中数据的最长储存期限,并在服务器上为其分配数据最大存储空间等。如您停止使用“风变编程”产品,或“风变编程”所提供的产品或服务终止或中止,“风变编程”可以从服务器上永久地删除用户的数据。“风变编程”没有义务向用户返还任何数据。

第十六条 【服务终止】
本协议或本协议项下“风变编程”所提供的产品使用及服务(含收费服务)可在下述情形下部分或全部中止或终止:
1) 因法律规定,或“风变编程”服从行政命令或司法判令的要求。
2) 用户违反本协议。
3) “风变编程”认为应予终止的其他情形。
在一般情形下,“风变编程”会提前按照您提供的联系方式以电子邮件或短信或其他电子方式通知您产品使用及服务将中止或终止。 您应了解并同意,在紧急情况或特殊下,“风变编程”可不经通知即中止或终止产品使用及服务。在本协议或本协议项下“风变编程”提供的产品使用及服务(含收费服务)中止或终止时,“风变编程”有权 :
1)拒绝用户登录“风变编程”产品及服务;
2)删除用户信息;
3)删除用户购买的内容。
您同意,如因“风变编程”原因导致付费产品在到期前终止使用,“风变编程”仅需按照相关产品规则向您返还未到期部分对应的价款 ,“风变编程”无需承担其他责任或义务,除上述情形外,“风变编程”无需因本协议或本协议项下“风变编程”所提供的产品使用及服务中止或终止,而向您作出赔偿或补偿或承担任何其他责任。

第十七条 【法律适用】
您在使用“风变编程”产品及服务时,应遵守中华人民共和国法律、及您所在地之法律、及您自愿或应当接收其管辖之法律。本协议的解释及履行应按照中华人民共和国(为本协议之目的,不包括港澳台地区)法律进行。

第十八条 【法律责任】
您应就所上传的内容承担全部法律责任;无论前述责任是因侵犯第三方权利所引起的、或因您违反与第三方或本协议引起的、或因您违反法律引起的;前述责任包括对“风变编程”或第三方所承担的民事责任、或行政机关要求承担的行政责任或刑事责任。 您同意,如因您违反法律规定或本协议规定给“风变编程”造成损失,您将充分赔偿“风变编程”所遭受的损失、包括其直接损失、间接损失、预期利益损失等一切损失。 您确认,如因第三方向您主张权利而导致您承担责任,或您承担行政责任或刑事责任的,“风变编程”无需向您承担任何责任。如您应向“风变编程”承担责任,前述责任不因本协议或本协议项下的服务被终止而免除。 如您在使用“风变编程”产品及服务的过程中发生任何违反法律法规或本协议的行为,“风变编程”有权根据行为过错、性质、后果等采取相应措施,包括但不限于删除相关内容、暂停账户使用、解除本协议、终止产品使用及服务、追索赔偿等,由此造成的一切风险、损失及责任将由您自行承担。

第十九条 【协议构成】
“风变编程”可能不时通过“风变编程”产品发布针对用户的相关协议或规则,该等相关协议或规则作为对本协议条款的补充或修改而成为本协议的一部分。请您及时关注并阅读相关协议或规则。

第二十条 【争议解决】
您和“风变编程”均同意,因本协议解释或执行引起的任何争议,双方应首先友好协商解决。协商不成时,争议将提交“风变编程”所在地法院诉讼解决。 请您再次确认您已全部阅读并充分理解上述协议。 如有任何疑问,可通过客服邮箱【code@forchange.cn】与“风变编程”取得联系。

小微企业报税

首先下载三个软件
– 增值税发票税控开票软件
– eTax@SH 3
– 自然人税收管理系统扣缴客户端

报税顺序:

月头发票上报汇总

国税局报税,地址:

https://etax.shanghai.chinatax.gov.cn/wszx-web/bszm/apps/views/beforeLogin/indexBefore/pageIndex.html#/

每个月8号之前报上个月的个人税

每月15号之前反写清盘,用于开发票

每季度8号之前报小规模企业税

注意:季度票不超过9万免税
每季度打印一次季度汇总表
税控盘每个月15号前都要上报汇总和反写清卡

~~~~~~~~~~~~~~~~~~~
小规模企业季报清卡步骤(1~15号内按顺序完成)
申报月(1,4,7,10月)操作步骤:
发票同步->上报汇总(个人所得税和企业税,资产负债表,现金流量表,利润表)->申报->反写
非申报月操作步骤:(2,3,5,6,8,9,11,12)
发票同步->上报汇总(个人所得税和企业税)->反写

经典测试面试题

1、问:你在测试中发现了一个bug,但是开发经理认为这不是一个bug,你应该怎样解决?

首先,将问题提交到缺陷管理库里面进行备案。

然后,要获取判断的依据和标准:

根据需求说明书、产品说明、设计文档等,确认实际结果是否与计划有不一致的地方,提供缺陷是否确认的直接依据;
如果没有文档依据,可以根据类似软件的一般特性来说明是否存在不一致的地方,来确认是否是缺陷;
根据用户的一般使用习惯,来确认是否是缺陷;
与设计人员、开发人员和客户代表等相关人员探讨,确认是否是缺陷;
合理的论述,向测试经理说明自己的判断的理由,注意客观、严谨,不参杂个人情绪。

等待测试经理做出最终决定,如果仍然存在争议,可以通过公司政策所提供的渠道,向上级反映,并有上级做出决定。

2、问:给你一个网站,你如何测试?

首先,查找需求说明、网站设计等相关文档,分析测试需求。

制定测试计划,确定测试范围和测试策略,一般包括以下几个部分:功能性测试;界面测试;性能测试;数据库测试;安全性测试;兼容性测试

设计测试用例:

功能性测试可以包括,但不限于以下几个方面:

链接测试。链接是否正确跳转,是否存在空页面和无效页面,是否有不正确的出错信息返回。
提交功能的测试。
多媒体元素是否可以正确加载和显示。
多语言支持是否能够正确显示选择的语言等。
界面测试可以包括但不限于一下几个方面:

页面是否风格统一,美观
页面布局是否合理,重点内容和热点内容是否突出
控件是否正常使用
对于必须但未安装的控件,是否提供自动下载并安装的功能
文字检查
性能测试一般从以下两个方面考虑:

压力测试;负载测试;强度测试

数据库测试要具体决定是否需要开展。数据库一般需要考虑连结性,对数据的存取操作,数据内容的验证等方面。

安全性测试:

基本的登录功能的检查
是否存在溢出错误,导致系统崩溃或者权限泄露
相关开发语言的常见安全性问题检查,例如SQL注入等
如果需要高级的安全性测试,确定获得专业安全公司的帮助,外包测试,或者获取支持
兼容性测试,根据需求说明的内容,确定支持的平台组合:

浏览器的兼容性;
操作系统的兼容性;
软件平台的兼容性;
数据库的兼容性
开展测试,并记录缺陷。合理的安排调整测试进度,提前获取测试所需的资源,建立管理体系(例如,需求变更、风险、配置、测试文档、缺陷报告、人力资源等内容)。

定期评审,对测试进行评估和总结,调整测试的内容。

3、在搜索引擎中输入汉字就可以解析到对应的域名,请问如何用LoadRunner进行测试。

建立测试计划,确定测试标准和测试范围
设计典型场景的测试用例,覆盖常用业务流程和不常用的业务流程等
根据测试用例,开发自动测试脚本和场景:
录制测试脚本:新建一个脚本(Web/HTML协议);点击录制按钮,在弹出的对话框的URL中输入”about:blank”;在打开的浏览器中进行正常操作流程后,结束录制;调试脚本并保存,可能要注意到字符集的关联。

设置测试场景:针对性能设置测试场景,主要判断在正常情况下,系统的平均事务响应时间是否达标;针对压力负载设置测试场景,主要判断在长时间处于满负荷或者超出系统承载能力的条件下,系统是否会崩溃;执行测试,获取测试结果,分析测试结果

4、问:一台客户端有三百个客户与三百个客户端有三百个客户对服务器施压,有什么区别?

300个用户在一个客户端上,会占用客户机更多的资源,而影响测试的结果。线程之间可能发生干扰,而产生一些异常。
300个用户在一个客户端上,需要更大的带宽。
IP地址的问题,可能需要使用IP Spoof来绕过服务器对于单一IP地址最大连接数的限制。
所有用户在一个客户端上,不必考虑分布式管理的问题;而用户分布在不同的客户端上,需要考虑使用控制器来整体调配不同客户机上的用户。同时,还需要给予相应的权限配置和防火墙设置。
5、试述软件的概念和特点?软件复用的含义?构件包括哪些?

软件是计算机系统中与硬件相互依存的另一部分,与计算机系统操作有关的计算机程序、规程、规则,以及可能有的文件、文档及数据。

软件复用(SoftWare Reuse)是将已有软件的各种有关知识用于建立新的软件,以缩减软件开发和维护的花费。软件复用是提高软件生产力和质量的一种重要技术。早期的软件复用主要是代码级复用,被复用的知识专指程序,后来扩大到包括领域知识、开发经验、设计决定、体系结构、需求、设计、代码和文档等一切有关方面。

可以被复用的软件成分一般称作可复用构件

6、软件生存周期及其模型是什么?

软件生存周期(Software life cycle)又称为软件生命期,生存期。是指从形成开发软件概念起,所开发的软件使用以后,知道失去使用价值消亡为止的整个过程。一般来说,整个生存周期包括计划(定义)、开发、运行(维护)三个时期,每个时期又划分为若干个阶段。每个阶段有明确的任务。

周期模型(典型的几种):

瀑布模型
快速原型模型:快速原型模型允许在需求分析阶段对软件的需求进行初步而非完全的分析和定义,快速设计开发出软件系统的原型,该原型向用户展示待开发软件的全部或部分功能和性能;用户对该原型进行测试评定,给出具体改进意见以丰富细化软件需求;开发人员据此对软件进行修改完善,直至用户满意认可之后,进行软件的完整实现及测试、维护。
迭代模型:迭代包括产生产品发布(稳定、可执行的产品版本)的全部开发活动和要使用该发布必需的所有其他外围元素。在某种程度上,开发迭代是一次 完整地经过所有工作流程的过程:需求分析、设计、实施和测试工作流程。实质上,它类似小型的瀑布式项目。RUP认为,所有的阶段都可以细分为迭代。每一次 的迭代都会产生一个可以发布的产品,这个产品是最终产品的一个子集。
生命周期阶段:

软件计划与可行性分析
需求分析
软件设计
编码
软件测试
运行与维护

7、什么是软件测试?软件测试的目的与原则

在规定的条件下对程序进行操作,以发现程序错误,衡量软件质量,并对其是否能满足设计要求进行评估的过程。

软件测试的目的:

测试是程序的执行过程,目的在于发现错误
一个成功的测试用例在于发现至今未发现的错误
一个成功的测试是发现了至今未发现的错误的测试
确保产品完成了它所承诺或公布的功能,并且用户可以访问到的功能都有明确的书面说明。
确保产品满足性能和效率的要求
确保产品是健壮的和适应用户环境的
软件测试的原则:

测试用例中一个必须部分是对预期输出或接过进行定义
程序员应避免测试自己编写的程序
编写软件的组织不应当测试自己编写的软件
应当彻底检查每个测试的执行结果
测试用例的编写不仅应当根据有效和预料到的输入情况,而且也应当根据无效和未预料到的输入情况
检擦程序是否“未做其应该做的”仅是测试的一半,测试的另一半是检查程序是否“做了其不应该做的”
应避免测试用例用后即弃,除非软件本身就是个一次性的软件
计划测试工作时不应默许假定不会发现错误
程序某部分存在更多错误的可能性,与该部分已经发现错误的数量成正比
软件测试是一项极富创造性,极具智力的挑战性的工作
8、软件配置管理的作用?软件配置包括什么?

软件配置管理(Software Configuration Management,SCM)是一种标识、组织和控制修改的技术。软件配置管理应用于整个软件工程过程。在软件建立时变更是不可避免的,而变更加剧了项目中软件开发者之间的混乱。SCM活动的目标就是为了标识变更、控制变更、确保变更正确实现并向其他有关人员报告变更。从某种角度讲,SCM是一种标识、组织和控制修改的技术,目的是使错误降为最小并最有效地提高生产效率。

软件配置包括如下内容:配置项识别、工作空间管理、版本控制、变更控制、状态报告、配置审计

9、什么是软件质量?

概括地说,软件质量就是“软件与明确的和隐含的定义的需求相一致的程度”。具体地说,软件质量是软件符合明确叙述的功能和性能需求、文档中明确描述 的开发标准、以及所有专业开发的软件都应具有的隐含特征的程度。 影响软件质量的主要因素,这些因素是从管理角度对软件质量的度量。可划分为三组,分别反应用户在使用软件产品时的三种观点。正确性、健壮性、效率、完整性、可用性、风险(产品运行);可理解性、可维修性、灵活性、可测试性(产品修改);可移植性、可再用性、互运行性(产品转移)。

10、目前主要的测试用例设计方法是什么?

白盒测试:逻辑覆盖、循环覆盖、基本路径覆盖

黑盒测试:边界值分析法、等价类划分、错误猜测法、因果图法、状态图法、测试大纲法、随机测试、场景法

11、软件的安全性应从哪几个方面去测试?

软件安全性测试包括程序、数据库安全性测试。根据系统安全指标不同测试策略也不同。

用户认证安全的测试要考虑问题: 明确区分系统中不同用户权限 、系统中会不会出现用户冲突 、系统会不会因用户的权限的改变造成混乱 、用户登陆密码是否是可见、可复制 、是否可以通过绝对途径登陆系统(拷贝用户登陆后的链接直接进入系统)、用户退出系统后是否删除了所有鉴权标记,是否可以使用后退键而不通过输入口令进入 系统 、系统网络安全的测试要考虑问题 、测试采取的防护措施是否正确装配好,有关系统的补丁是否打上 、模拟非授权攻击,看防护系统是否坚固 、采用成熟的网络漏洞检查工具检查系统相关漏洞(即用最专业的黑客攻击工具攻击试一下,现在最常用的是 NBSI 系列和 IPhacker IP ) 、采用各种木马检查工具检查系统木马情况 、采用各种防外挂工具检查系统各组程序的外挂漏洞
数据库安全考虑问题: 系统数据是否机密(比如对银行系统,这一点就特别重要,一般的网站就没有太高要求)、系统数据的完整性(我刚刚结束的企业实名核查服务系统中就曾存在数据 的不完整,对于这个系统的功能实现有了障碍) 、系统数据可管理性 、系统数据的独立性 、系统数据可备份和恢复能力(数据备份是否完整,可否恢复,恢复是否可以完整)

12、什么是测试用例 什么是测试脚本 两者的关系是什么?

为实施测试而向被测试系统提供的输入数据、操作或各种环境设置以及期望结果的一个特定的集合。

测试脚本是为了进行自动化测试而编写的脚本。

测试脚本的编写必须对应相应的测试用例

13、简述什么是静态测试、动态测试、黑盒测试、白盒测试、α测试 β测试

静态测试是不运行程序本身而寻找程序代码中可能存在的错误或评估程序代码的过程。
动态测试是实际运行被测程序,输入相应的测试实例,检查运行结果与预期结果的差异,判定执行结果是否符合要求,从而检验程序的正确性、可靠性和有效性,并分析系统运行效率和健壮性等性能。
黑盒测试一般用来确认软件功能的正确性和可操作性,目的是检测软件的各个功能是否能得以实现,把被测试的程序当作一个黑盒,不考虑其内部结构,在知道该程序的输入和输出之间的关系或程序功能的情况下,依靠软件规格说明书来确定测试用例和推断测试结果的正确性。
白盒测试根据软件内部的逻辑结构分析来进行测试,是基于代码的测试,测试人员通过阅读程序代码或者通过使用开发工具中的单步调试来判断软件的质量,一般黑盒测试由项目经理在程序员开发中来实现。
α测试是由一个用户在开发环境下进行的测试,也可以是公司内部的用户在模拟实际操作环境下进行的受控测试,Alpha测试不能由程序员或测试员完成。
β测试是软件的多个用户在一个或多个用户的实际使用环境下进行的测试。开发者通常不在测试现场,Beta测试不能由程序员或测试员完成。

14、软件质量保证体系是什么 国家标准中与质量保证管理相关的几个标准是什么?他们的编号和全称是什么?

SQA由一套软件工程过程和方法组成,以保证(软件的)质量。SQA贯穿整个软件开发过程,(它)应包括需求文档评审、代码控制、代码评审、变更管理、配置管理、版本管理和软件测试。

软件质量保证(SQA-Software Quality Assurance)是建立一套有计划,有系统的方法,来向管理层保证拟定出的标准、步骤、实践和方法能够正确地被所有项目所采用。软件质量保证的目的是使软件过程对于管理人员来说是可见的。它通过对软件产品和活动进行评审和审计来验证软件是合乎标准的。软件质量保证组在项目开始时就一起参与建立计划、标准和过程。这些将使软件项目满足机构方针的要求。

15、软件产品质量特性是什么?

功能性:适应性、准确性、互操作性、依从性、安全性。

可靠性:成熟性、容错性、易恢复性。

可使用性:易理解性、易学习性、易操作性。

效率:时间特性、资源特性。

可维护性:易分析性、易变更性、稳定性、易测试性。

可移植性: 适应性、易安装性、遵循性、易替换性

16、软件测试的策略是什么?

软件测试策略:在一定的软件测试标准、测试规范的指导下,依据测试项目的特定环境约束而规定的软件测试的原则、方式、方法的集合。

17、软件测试分为几个阶段 各阶段的测试策略和要求是什么?

和开发过程相对应,测试过程会依次经历单元测试、集成测试、系统测试、验收测试四个主要阶段:

单元测试:单元测试是针对软件设计的最小单位––程序模块甚至代码段进行正确性检验的测试工作,通常由开发人员进行。
集成测试:集成测试是将模块按照设计要求组装起来进行测试,主要目的是发现与接口有关的问题。由于在产品提交到测试部门前,产品开发小组都要进行联合调试,因此在大部分企业中集成测试是由开发人员来完成的。
系统测试:系统测试是在集成测试通过后进行的,目的是充分运行系统,验证各子系统是否都能正常工作并完成设计的要求。它主要由测试部门进行,是测试部门最大最重要的一个测试,对产品的质量有重大的影响。
验收测试:验收测试以需求阶段的《需求规格说明书》为验收标准,测试时要求模拟实际用户的运行环境。对于实际项目可以和客户共同进行,对于产品来说就是最后一次的系统测试。测试内容为对功能模块的全面测试,尤其要进行文档测试。
单元测试测试策略:

自顶向下的单元测试策略:比孤立单元测试的成本高很多,不是单元测试的一个好的选择。

自底向上的单元测试策略:比较合理的单元测试策略,但测试周期较长。

孤立单元测试策略:最好的单元测试策略。

集成测试的测试策略:

大爆炸集成:适应于一个维护型项目或被测试系统较小

自顶向下集成:适应于产品控制结构比较清晰和稳定;高层接口变化较小;底层接口未定义或经常可能被修改;产口控制组件具有较大的技术风险,需要尽早被验证;希望尽早能看到产品的系统功能行为。

自底向上集成:适应于底层接口比较稳定;高层接口变化比较频繁;底层组件较早被完成。

基于进度的集成
优点:具有较高的并行度;能够有效缩短项目的开发进度。
缺点:桩和驱动工作量较大;有些接口测试不充分;有些测试重复和浪费。

系统测试的测试策略:

数据和数据库完整性测试;功能测试;用户界面测试;性能评测;负载测试;强度测试;容量测试;安全性和访问控制测试;故障转移和恢复测试;配置测试;安装测试;加密测试;可用性测试;版本验证测试;文档测试

18、软件测试各个阶段通常完成什么工作?各个阶段的结果文件是什么?包括什么内容?

单元测试阶段:各独立单元模块在与系统地其他部分相隔离的情况下进行测试,单元测试针对每一个程序模块进行正确性校验,检查各个程序模块是否正确地实现了规定的功能。生成单元测试报告,提交缺陷报告。

集成测试阶段:集成测试是在单元测试的基础上,测试在将所有的软件单元按照概要设计规格说明的要求组装成模块、子系统或系统的过程中各部分工作是否达到或实现相应技术指标及要求的活动。该阶段生成集成测试报告,提交缺陷报告。

系统测试阶段:将通过确认测试的软件,作为整个给予计算机系统的一个元素,与计算机硬件、外设、某些支持软件、数据和人员等其他系统元素结合在一起,在实际运行环境下,对计算机系统进行全面的功能覆盖。该阶段需要提交测试总结和缺陷报告。

19、测试人员在软件开发过程中的任务是什么?

1、尽可能早的找出系统中的Bug;
2、避免软件开发过程中缺陷的出现;
3、衡量软件的品质,保证系统的质量;
4、关注用户的需求,并保证系统符合用户需求。
总的目标是:确保软件的质量。

20、在您以往的工作中,一条软件缺陷(或者叫Bug)记录都包含了哪些内容?如何提交高质量的软件缺陷(Bug)记录?

一条Bug记录最基本应包含:

bug编号;
bug严重级别,优先级;
bug产生的模块;
首先要有bug摘要,阐述bug大体的内容;
bug对应的版本;
bug详细现象描述,包括一些截图、录像….等等;
bug出现时的测试环境,产生的条件即对应操作步骤;

高质量的Bug记录:
1) 通用UI要统一、准确
缺陷报告的UI要与测试的软件UI保持一致,便于查找定位。
2) 尽量使用业界惯用的表达术语和表达方法
使用业界惯用的表达术语和表达方法,保证表达准确,体现专业化。
3) 每条缺陷报告只包括一个缺陷
每条缺陷报告只包括一个缺陷,可以使缺陷修正者迅速定位一个缺陷,集中精力每次只修正一个缺陷。校验者每次只校验一个缺陷是否已经正确修正。
4) 不可重现的缺陷也要报告
首先缺陷报告必须展示重现缺陷的能力。不可重现的缺陷要尽力重现,若尽力之后仍不能重现,仍然要报告此缺陷,但在报告中要注明无法再现,缺陷出现的频率。
5) 明确指明缺陷类型
根据缺陷的现象,总结判断缺陷的类型。例如,即功能缺陷、界面缺陷、数据缺陷,合理化建议这是最常见的缺陷或缺陷类型,其他形式的缺陷或缺陷也从属于其中某种形式。
6) 明确指明缺陷严重等级和优先等级
时刻明确严重等级和优先等级之间的差别。高严重问题可能不值得解决,小装饰性问题可能被当作高优先级。
7) 描述 (Description) ,简洁、准确,完整,揭示缺陷实质,记录缺陷或缺陷出现的位置
描述要准确反映缺陷的本质内容,简短明了。为了便于在软件缺陷管理数据库中寻找制定的测试缺陷,包含缺陷发生时的用户界面(UI)是个良好的习惯。例如记录对话框的标题、菜单、按钮等控件的名称。
8) 短行之间使用自动数字序号,使用相同的字体、字号、行间距
短行之间使用自动数字序号,使用相同的字体、字号、行间距,可以保证各条记录格式一致,做到规范专业。
9) 每一个步骤尽量只记录一个操作
保证简洁、条理井然,容易重复操作步骤。
10) 确认步骤完整,准确,简短
保证快速准确的重复缺陷,“完整”即没有缺漏,“准确”即步骤正确,“简短”即没有多余的步骤。
11) 根据缺陷,可选择是否进行图象捕捉
为了直观的观察缺陷或缺陷现象,通常需要附加缺陷或缺陷出现的界面,以图片的形式作为附件附着在记录的“附件”部分。为了节省空间,又能真实反映缺陷或缺陷本质,可以捕捉缺陷或缺陷产生时的全屏幕,活动窗口和局部区域。为了迅速定位、修正缺陷或缺陷位置,通常要求附加中文对照图。
 附加必要的特殊文档和个人建议和注解
如果打开某个特殊的文档而产生的缺陷或缺陷,则必须附加该文档,从而可以迅速再现缺陷或缺陷。有时,为了使缺陷或缺陷修正者进一步明确缺陷或缺陷的表现,可以附加个人的修改建议或注解。
12) 检查拼写和语法缺陷
在提交每条缺陷或缺陷之前,检查拼写和语法,确保内容正确,正确的描述缺陷。
13) 尽量使用短语和短句,避免复杂句型句式
软件缺陷管理数据库的目的是便于定位缺陷,因此,要求客观的描述操作步骤,不需要修饰性的词汇和复杂的句型,增强可读性。
以上概括了报告测试缺陷的规范要求,随着软件的测试要求不同,测试者经过长期测试,积累了相应的测试经验,将会逐渐养成良好的专业习惯,不断补充新的规范书写要求。此外,经常阅读、学习其他测试工程师的测试缺陷报告,结合自己以前的测试缺陷报告进行对比和思考,可以不断提高技巧。
14) 缺陷描述内容
缺陷描述的内容可以包含缺陷操作步骤,实际结果和期望结果。操作步骤可以方便开发人员再现缺陷进行修正,有些开发的再现缺陷能力很差,虽然他明白你所指的缺陷,但就是无法再现特别是对系统不熟悉的新加入开发人员,介绍步骤可以方便他们再现。实际结果可以让开发明白错误是什么,期望结果可以让开发了解正确的结果应该是如何。

21、黑盒测试和白盒测试是软件测试的两种基本方法,请分别说明各自的优点和缺点!

黑盒测试的优点有:比较简单,不需要了解程序内部的代码及实现;与软件的内部实现无关; 从用户角度出发,能很容易的知道用户会用到哪些功能,会遇到哪些问题;基于软件开发文档,所以也能知道软件实现了文档中的哪些功能;在做软件自动化测试时较为方便。

黑盒测试的缺点有:不可能覆盖所有的代码,覆盖率较低,大概只能达到总代码量的30%;自动化测试的复用性较低。

白盒测试的优点有:帮助软件测试人员增大代码的覆盖率,提高代码的质量,发现代码中隐 藏的问题。

白盒测试的缺点有:程序运行会有很多不同的路径,不可能测试所有的运行路径;测试基于代码,只能测试开发人员做的对不对,而不能知道设计的正确与否,可能会漏掉一些功能需求;系统庞大时,测试开销会非常大。

22、如何测试一个纸杯?

功能度:用水杯装水看漏不漏;水能不能被喝到

安全性:杯子有没有毒或细菌

可靠性:杯子从不同高度落下的损坏程度

可移植性:杯子在不同的地方、温度等环境下是否都可以正常使用

兼容性:杯子是否能够容纳果汁、白水、酒精、汽油等

易用性:杯子是否烫手、是否有防滑措施、是否方便饮用

用户文档:使用手册是否对杯子的用法、限制、使用条件等有详细描述

疲劳测试:将杯子盛上水(案例一)放24小时检查泄漏时间和情况;盛上汽油(案例二)放24小时检查泄漏时间和情况等

压力测试:用根针并在针上面不断加重量,看压强多大时会穿透

22、测试计划工作的目的是什么?测试计划文档的内容应该包括什么?其中哪些是最重要的?

软件测试计划是指导测试过程的纲领性文件:

领导能够根据测试计划进行宏观调控,进行相应资源配置等
测试人员能够了解整个项目测试情况以及项目测试不同阶段的所要进行的工作等
便于其他人员了解测试人员的工作内容,进行有关配合工作
包含了产品概述、测试策略、测试方法、测试区域、测试配置、测试周期、测试资源、测试交流、风险分析等内容。借助软件测试计划,参与测试的项目成员,尤其是测试管理人员,可以明确测试任务和测试方法,保持测试实施过程的顺畅沟通,跟踪和控制测试进度,应对测试过程中的各种变更。

测试计划编写6要素(5W1H):

why——为什么要进行这些测试;
what—测试哪些方面,不同阶段的工作内容;
when—测试不同阶段的起止时间;
where—相应文档,缺陷的存放位置,测试环境等;
who—项目有关人员组成,安排哪些测试人员进行测试;
how—如何去做,使用哪些测试工具以及测试方法进行测试
测试计划和测试详细规格、测试用例之间是战略和战术的关系,测试计划主要从宏观上规划测试活动的范围、方法和资源配置,而测试详细规格、测试用例是完成测试任务的具体战术。所以其中最重要的是测试测试策略和测试方法(最好是能先评审)。

23、黑盒测试的测试用例常见设计方法都有哪些?请分别以具体的例子来说明这些方法在测试用例设计工作中的应用。

1)等价类划分: 等价类是指某个输入域的子集合.在该子集合中,各个输入数据对于揭露程序中的错误都是等效的.并合理地假定:测试某等价类的代表值就等于对这一类其它值的测试.因此,可以把全部输入数据合理划分为若干等价类,在每一个等价类中取一个数据作为测试的输入条件,就可以用少量代表性的测试数据.取得较好的测试结果.等价类划分可有两种不同的情况:有效等价类和无效等价类.

2)边界值分析法:是对等价类划分方法的补充。测试工作经验告诉我,大量的错误是发生在输入或输出范围的边界上,而不是发生在输入输出范围的内部.因此针对各种边界情况设计测试用例,可以查出更多的错误.

使用边界值分析方法设计测试用例,首先应确定边界情况.通常输入和输出等价类的边界,就是应着重测试的边界情况.应当选取正好等于,刚刚大于或刚刚小于边界的值作为测试数据,而不是选取等价类中的典型值或任意值作为测试数据.

3)错误猜测法:基于经验和直觉推测程序中所有可能存在的各种错误, 从而有针对性的设计测试用例的方法.

错误推测方法的基本思想: 列举出程序中所有可能有的错误和容易发生错误的特殊情况,根据他们选择测试用例. 例如, 在单元测试时曾列出的许多在模块中常见的错误. 以前产品测试中曾经发现的错误等, 这些就是经验的总结. 还有, 输入数据和输出数据为0的情况. 输入表格为空格或输入表格只有一行. 这些都是容易发生错误的情况. 可选择这些情况下的例子作为测试用例.

4)因果图方法:前面介绍的等价类划分方法和边界值分析方法,都是着重考虑输入条件,但未考虑输入条件之间的联系, 相互组合等. 考虑输入条件之间的相互组合,可能会产生一些新的情况. 但要检查输入条件的组合不是一件容易的事情, 即使把所有输入条件划分成等价类,他们之间的组合情况也相当多. 因此必须考虑采用一种适合于描述对于多种条件的组合,相应产生多个动作的形式来考虑设计测试用例. 这就需要利用因果图(逻辑模型). 因果图方法最终生成的就是判定表. 它适合于检查程序输入条件的各种组合情况.

5)正交表分析法:可能因为大量的参数的组合而引起测试用例数量上的激增,同时,这些测试用例并没有明显的优先级上的差距,而测试人员又无法完成这么多数量的测试,就可以通过正交表来进行缩减一些用例,从而达到尽量少的用例覆盖尽量大的范围的可能性。

6)场景分析方法:指根据用户场景来模拟用户的操作步骤,这个比较类似因果图,但是可能执行的深度和可行性更好。

7)状态图法:通过输入条件和系统需求说明得到被测系统的所有状态,通过输入条件和状态得出输出条件;通过输入条件、输出条件和状态得出被测系统的测试用例。

8)大纲法:大纲法是一种着眼于需求的方法,为了列出各种测试条件,就将需求转换为大纲的形式。大纲表示为树状结构,在根和每个叶子结点之间存在唯一的路径。大纲中的每条路径定义了一个特定的输入条件集合,用于定义测试用例。树中叶子的数目或大纲中的路径给出了测试所有功能所需测试用例的大致数量。

24、详细的描述一个测试活动完整的过程。(供参考,本答案主要是瀑布模型的做法)

项目经理通过和客户的交流,完成需求文档,由开发人员和测试人员共同完成需求文档的评审,评审的内容包括:需求描述不清楚的地方和可能有明显冲突或者无法实现的功能的地方。项目经理通过综合开发人员,测试人员以及客户的意见,完成项目计划。然后SQA进入项目,开始进行统计和跟踪

开发人员根据需求文档完成需求分析文档,测试人员进行评审,评审的主要内容包括是否有遗漏或双方理解不同的地方。测试人员完成测试计划文档,测试计划包括的内容上面有描述。

测试人员根据修改好的需求分析文档开始写测试用例,同时开发人员完成概要设计文档,详细设计文档。此两份文档成为测试人员撰写测试用例的补充材料。

测试用例完成后,测试和开发需要进行评审。

测试人员搭建环境

开发人员提交第一个版本,可能存在未完成功能,需要说明。测试人员进行测试,发现BUG后提交给BugZilla。

开发提交第二个版本,包括Bug Fix以及增加了部分功能,测试人员进行测试。

重复上面的工作,一般是3-4个版本后BUG数量减少,达到出货的要求。

如果有客户反馈的问题,需要测试人员协助重现并重新测试。

26、BUG管理工具的跟踪过程(用BugZilla为例子)

测试人员发现了BUG,提交到Bugzilla中,状态为new,BUG的接受者为开发接口人员

开发接口将BUG分配给相关的模块的开发人员,状态修改为已分配,开发人员和测试确认BUG,如果是本人的BUG,则设置为接收;如果是别的开发人员的问题,则转发出去,由下一个开发人员来进行此行为;如果认为不是问题,则需要大家讨论并确认后,拒绝这个BUG,然后测试人员关闭此问题。

如果开发人员接受了BUG,并修改好以后,将BUG状态修改为已修复,并告知测试在哪个版本中可以测试。

测试人员在新版本中测试,如果发现问题依然存在,则拒绝验证;如果已经修复,则关闭BUG。

27、您认为在测试人员同开发人员的沟通过程中,如何提高沟通的效率和改善沟通的效果?维持测试人员同开发团队中其他成员良好的人际关系的关键是什么?

尽量面对面的沟通,其次是能直接通过电话沟通,如果只能通过Email等非及时沟通工具的话,强调必须对特性的理解深刻以及能表达清楚。

运用一些测试管理工具如TestDirector进行管理也是较有效的方法,同时要注意在TestDirector中对BUG有准确的描述。

在团队中建立测试人员与开发人员良好沟通中注意以下几点:

一真诚、二是团队精神、三是在专业上有共同语言、四是要对事不对人,工作至上

当然也可以通过直接指出一些小问题,而不是进入BUG Tracking System来增加对方的好感。

28、你对测试最大的兴趣在哪里?为什么?

回答这个面试题,没有固定统一的答案,但可能是许多企业都会问到的。提供以下答案供考:

最大的兴趣,感觉这是一个有挑战性的工作;

测试是一个经验行业,工作越久越能感觉到做好测试的难度和乐趣

通过自己的工作,能使软件产品越来越完善,从中体会到乐趣

回答此类问题注意以下几个方面:

尽可能的切合招聘企业的技术路线来表达你的兴趣,例如该企业是数据库应用的企业,那么表示你的兴趣在数据库的测试,并且希望通过测试提升自己的数据库掌握能力。

表明你做测试的目的是为了提升能力,也是为了更好的做好测试;提升能力不是为了以后转开发或其他的,除非用人企业有这样的安排。

不要过多的表达你的兴趣在招聘企业的范畴这外。比如招聘企业是做财务软件的,可是你表现出来的是对游戏软件的兴趣;或招聘是做JAVA开发的,而你的兴趣是在C类语言程序的开发。

29、你自认为测试的优势在哪里?

该面试也没有固定不变的答案,但可参考以下几点,并结合自身特点:

有韧性、有耐心、做事有条理性、喜欢面对挑战、有信心做好每一件事情、较强的沟通能力、从以前的经理处都得到了很好的评价表明我做的很好

33、简述你在以前的工作中做过哪些事情,比较熟悉什么。参考答案如下。

我过去的主要工作是系统测试和自动化测试。在系统测试中,主要是对BOSS系统的业务逻辑功能,以及软交换系统的Class 5特性进行测试。性能测试中,主要是进行的压力测试,在各个不同数量请求的情况下,获取系统响应时间以及系统资源消耗情况。自动化测试主要是通过自己写脚本以及一些第三方工具的结合来测试软交换的特性测试。

在测试中,我感觉对用户需求的完全准确的理解非常重要。另外,就是对BUG的管理,要以需求为依据,并不是所有BUG均需要修改。

测试工作需要耐心和细致,因为在新版本中,虽然多数原来发现的BUG得到了修复,但原来正确的功能也可能变得不正确。因此要注重迭代测试和回归测试。

34、在C/C++中static有什么用途?(请至少说明两种)
1)在函数体,一个被声明为静态的变量在这一函数被调用过程中维持其值不变。
2) 在模块内(但在函数体外),一个被声明为静态的变量可以被模块内所用函数访问,但不能被模块外其它函数访问。它是一个本地的全局变量。
3) 在模块内,一个被声明为静态的函数只可被这一模块内的其它函数调用。那就是,这个函数被限制在声明它的模块的本地范围内使用

35、引用与指针有什么区别?
1) 引用必须被初始化,指针不必。
2) 引用初始化以后不能被改变,指针可以改变所指的对象。
3) 不存在指向空值的引用,但是存在指向空值的指针。

36、Internet采用哪种网络协议?该协议的主要层次结构?Internet物理地址和IP地址转换采用什么协议?

TCP/IP协议主要层次结构为: 应用层/传输层/网络层/数链路层。

ARP (Address Resolution Protocol)(地据址解析协议)

37、说说你对集成测试中自顶向下集成和自底向上集成两个策略的理解,要谈出它们各自的优缺点和主要适应于哪种类型测试;

自顶向下集成

优点:较早地验证了主要控制和判断点;按深度优先可以首先实现和验证一个完整的软件功能;功能较早证实,带来信心;只需一个驱动,减少驱动器开发的费用;支持故障隔离。

缺点:柱的开发量大;底层验证被推迟;底层组件测试不充分。

适应于产品控制结构比较清晰和稳定;高层接口变化较小;底层接口未定义或经常可能被修改;产口控制组件具有较大的技术风险,需要尽早被验证;希望尽早能看到产品的系统功能行为。

2、自底向上集成

优点:对底层组件行为较早验证;工作最初可以并行集成,比自顶向下效率高;减少了桩的工作量;支持故障隔离。

缺点:驱动的开发工作量大;对高层的验证被推迟,设计上的错误不能被及时发现。
适应于底层接口比较稳定;高层接口变化比较频繁;底层组件较早被完成。

38、软件验收测试包括正式验收测试、alpha测试、beta测试三种测试。

39、系统测试的策略有很多种的,有性能测试、负载测试、强度测试、易用性测试、安全测试、配置测试、安装测试、文档测试、故障恢复测试、用户界面测试、恢复测试、分布测试、可用性测试。

40、设计系统测试计划需要参考的项目文档有软件测试计划、软件需求工件、和迭代计划

41.通过画因果图来写测试用例的步骤为及把因果图转换为状态图共五个步骤。 利用因果图生成测试用例的基本步骤是:

§ 分析软件规格说明描述中,哪些是原因(即输入条件或输入条件的等价类),哪些是结果(即输出条件),并给每个原因和结果赋予一个标识符。

§ 分析软件规格说明描述中的语义,找出原因与结果之间,原因与原因之间对应的是什么关系? 根据这些关系,画出因果图。

§ 由于语法或环境限制,有些原因与原因之间,原因与结果之间的组合情况不可能出现。为表明这些特殊情况,在因果图上用一些记号标明约束或限制条件。 § 把因果图转换成判定表。

§ 把判定表的每一列拿出来作为依据,设计测试用例。

43、请说出这些测试最好由那些人员完成,测试的是什么?

代码、函数级测试一般由白盒测试人员完成,他们针对每段代码或函数进行正确性检验,检查其是否正确的实现了规定的功能。

模块、组件级测试主要依据是程序结构设计测试模块间的集成和调用关系,一般由测试人员完成。

系统测试在于模块测试与单元测试的基础上进行测试。了解系统功能与性能,根据测试用例进行全面的测试。

44、 设计测试用例时应该考虑哪些方面,即不同的测试用例针对那些方面进行测试?

设计测试用例时需要注意的是,除了对整体流程及功能注意外,还要注意强度测试、性能测试、压力测试、边界值测试、稳定性测试、安全性测试等多方面。(测试用例需要考虑的四个基本要素是输入、输出、操作和测试环境;另外,测试用例需要考虑的是测试类型(功能、性能、安全……),这部分可以参照TP做答。此外,还需要考虑用例的重要性和优先级)

45、 在windows下保存一个文本文件时会弹出保存对话框,如果为文件名建立测试用例,等价类应该怎样划分?

单字节,如A;双字节, AA、我我;特殊字符 /‘。‘;、=-等;保留字,如com;文件格式为8.3格式的;文件名格式为非8.3格式的;/,\,*等九个特殊字符。

46、假设有一个文本框要求输入10个字符的邮政编码,对于该文本框应该怎样划分等价类?

特殊字符,如10个*或¥;英文字母,如ABCDefghik;小于十个字符,如123;大于十个字符,如11111111111;数字和其他混合,如123AAAAAAA;空字符;保留字符

47.软件测试项目从什么时候开始,?为什么?
软件测试应该在需求分析阶段就介入,因为测试的对象不仅仅是程序编码,应该对软件开发过程中产生的所有产品都测试,并且软件缺陷存在放大趋势.缺陷发现的越晚,修复它所花费的成本就越大.

48、什么是回归测试?

回归测试: (regression testing): 回归测试有两类:用例回归和错误回归;用例回归是过一段时间以后再回头对以前使用过的用例在重新进行测试,看看会重新发现问题。错误回归,就是在新版本中,对以前版本中出现并修复的缺陷进行再次验证,并以缺陷为核心,对相关修改的部分进行测试的方法。

49.单元测试、集成测试、系统测试的侧重点是什么?
单元测试针对的是软件设计的最小单元–程序模块(面向过程中是函数、过程;面向对象中是类。),进行正确性检验的测试工作,在于发现每个程序模块内部可能存在的差错.一般有两个步骤:人工静态检查\动态执行跟踪
集成测试针对的是通过了单元测试的各个模块所集成起来的组件进行检验,其主要内容是各个单元模块之间的接口,以及各个模块集成后所实现的功能.
系统测试针对的是集成好的软件系统,作为整个计算机系统的一个元素,与计算机硬件\外设\某些支持软件\数据和人员等其他系统元素结合在一起,要在实际的运行环境中,对计算机系统进行一系列的集成测试和确认测试.

51.一个测试工程师应具备那些素质?
1、责任心2、沟通能力3、团队合作精神4、耐心、细心、信心5、时时保持怀疑态度,并且有缺陷预防的意识6、具备一定的编程经验

53:你所了解的的软件测试类型都有哪些,简单介绍一下。

按测试策略分类:1、静态与动态测试2、黑盒与白盒测试 3、手工和自动测试 4、冒烟测试 5、回归测试;

按测试阶段分类:单元测试、集成测试、系统测试;

其他常见测试方法:1、功能测试 2、性能测试 3、压力测试 4、负载测试 5、易用性测试 6、安装测试 7、界面测试 8、配置测试 9、文档测试 10、兼容性测试 11、安全性测试 12、恢复测试

54:你认为做好测试计划工作的关键是什么?

明确测试的目标,增强测试计划的实用性

编写软件测试计划得重要目的就是使测试过程能够发现更多的软件缺陷,因此软件测试计划的价值取决于它对帮助管理测试项目,并且找出软件潜在的缺陷。因此,软件测试计划中的测试范围必须高度覆盖功能需求,测试方法必须切实可行,测试工具并且具有较高的实用性,便于使用,生成的测试结果直观、准确

坚持“5W”规则,明确内容与过程

“5W”规则指的是“What(做什么)”、“Why(为什么做)”、“When(何时做)”、“Where(在哪里)”、“How(如何做)”。利用“5W”规则创建软件测试计划,可以帮助测试团队理解测试的目的(Why),明确测试的范围和内容(What),确定测试的开始和结束日期(When),指出测试的方法和工具(How),给出测试文档和软件的存放位置(Where)。

采用评审和更新机制,保证测试计划满足实际需求

测试计划写作完成后,如果没有经过评审,直接发送给测试团队,测试计划内容的可能不准确或遗漏测试内容,或者软件需求变更引起测试范围的增减,而测试计划的内容没有及时更新,误导测试执行人员。

分别创建测试计划与测试详细规格、测试用例

应把详细的测试技术指标包含到独立创建的测试详细规格文档,把用于指导测试小组执行测试过程的测试用例放到独立创建的测试用例文档或测试用例管理数据库中。测试计划和测试详细规格、测试用例之间是战略和战术的关系,测试计划主要从宏观上规划测试活动的范围、方法和资源配置,而测试详细规格、测试用例是完成测试任务的具体战术。

55:您认为做好测试用例设计工作的关键是什么?

白盒测试用例设计的关键是以较少的用例覆盖尽可能多的内部程序逻辑结果

黑盒法用例设计的关键同样也是以较少的用例覆盖模块输出和输入接口。不可能做到完全测试,以最少的用例在合理的时间内发现最多的问题

56:你的测试职业发展目标是什么?

测试经验越多,测试能力越高。所以我的职业发展是需要时间累积的,一步步向着高级测试工程师奔去。而且我也有初步的职业规划,前3年累积测试经验,不断的更新自己改正自己,做好测试任务。

57:测试结束的标准是什么?

从微观上来说,在测试计划中定义,比如系统在一定性能下平稳运行72小时,目前Bug Tracking System中,本版本中没有一般严重的BUG,普通BUG的数量在3以下,BUG修复率90%以上等等参数,然后由开发经理,测试经理,项目经理共同签字认同版本Release。

如果说宏观的,则是当这个软件彻底的消失以后,测试就结束了。

59、一套完整的测试应该由哪些阶段组成?
可行性分析、需求分析、概要设计、详细设计、编码、单元测试、集成测试、系统测试、验收测试

61、您是否了解以往所工作的企业的软件开发过程?如果了解,请试述一个完整的开发过程需要完成哪些工作?分别由哪些不同的角色来完成这些工作?您在以往的测试工作中都曾经具体从事过哪些工作?其中最擅长哪部分工作?

开发过程—需求调研(需求人员)、需求分析(需求人员)、概要设计(设计人员)、详细设计(设计人员)、编码(开发人员)

测试过程—需求评审、系统测试设计、概要设计评审、集成测试设计、详细设计评审、单元测试设计、测试执行

测试工作的整个过程都做过,擅长做测试设计

过程决定质量,软件的过程改进正是为了提高软件的质量,将过往的种种经验教训积累起来。

62、测试用例设计的原则是什么?目前主要的测试用例设计方法有哪些?

代表性:能够代表并覆盖各种合理的和不合理、合法的和非法的、边界的和越界的、以及极限的输入数据、操作和环境设置等.

可判定性:即测试执行结果的正确性是可判定的,每一个测试用例都应有相应的期望结果.

可再现性:即对同样的测试用例,系统的执行结果应当是相同的。

方法有等价类、边界值、因果图、状态图、正交法、大纲法

63、面向对象的测试用例设计有几种方法?如何实现?

给类中的每个构造函数设计一组测试用例

组合类中的类变量、实例变量

组合类中的各种方法

根据前置条件和后置条件设计测试用例

根据代码设计测试用例

64、LoadRunner分为哪三个模块?请简述各模块的主要功能。

Virtual User Generator:用于录制脚步

Mercury LoadRunner Controller:用于创建、运行和监控场景

Mercury LoadRunner Analysis:用于分析测试结果

65、你对测试最大的兴趣在哪里?为什么?

最大的兴趣就是测试有难度,有挑战性!做测试越久越能感觉到做好测试有多难。曾经在无忧测试网上看到一篇文章,是关于如何做好一名测试工程师。一共罗列了11,12点,有部分是和人的性格有关,有部分需要后天的努力。但除了性格有关的1,2点我没有把握,其他点我都很有信心做好它。

刚开始进入测试行业时,对测试的认识是从无忧测试网上了解到的一些资料,当时是冲着做测试需要很多技能才能做的好,虽然入门容易,但做好很难,比开发更难,虽然当时我很想做开发(学校专业课我基本上不缺席,因为我喜欢我的专业),但看到测试比开发更难更有挑战性,想做好测试的意志就更坚定了。

我觉得做测试整个过程中有2点让我觉得很有难度(对我来说,有难度的东西我就非常感兴趣),第一是测试用例的设计,因为测试的精华就在测试用例的设计上了,要在版本出来之前,把用例写好,用什么测试方法写?(也就是测试计划或测试策略),如果你刚测试一个新任务时,你得花一定的时间去消化业务需求和技术基础,业务需求很好理解(多和产品经理和开发人员沟通就能达到目的),而技术基础可就没那么简单了,这需要你自觉的学习能力,比如说网站吧,最基本的技术知识你要知道网站内部是怎么运作的的,后台是怎么响应用户请求的?测试环境如何搭建?这些都需要最早的学好。至少在开始测试之前能做好基本的准备,可能会遇到什么难题?需求细节是不是没有确定好?这些问题都能在设计用例的时候发现。

第二是发现BUG的时候了,这应该是测试人员最基本的任务了,一般按测试用例开始测试就能发现大部分的bug,还有一部分bug需要测试的过程中更了解所测版本的情况获得更多信息,补充测试用例,测试出bug。还有如何发现bug?这就需要在测试用例有效的情况下,通过细心和耐心去发现bug了,每个用例都有可能发现bug,每个地方都有可能出错,所以测试过程中思维要清晰(测试过程数据流及结果都得看仔细了,bug都在里面发现的)。如何描述bug也很有讲究,bug在什么情况下会产生,如果条件变化一点点,就不会有这个bug,以哪些最少的操作步骤就能重现这个bug,这个bug产生的规律是什么?如果你够厉害的话,可以帮开发人员初步定位问题。

66、您所熟悉的软件测试类型都有哪些?请试着分别比较这些不同的测试类型的区别与联系(如功能测试、性能测试……)
  测试类型有:功能测试,性能测试,界面测试。
  功能测试在测试工作中占的比例最大,功能测试也叫黑盒测试。是把测试对象看作一个黑盒子。利用黑盒测试法进行动态测试时,需要测试软件产品的功能,不需测试软件产品的内部结构和处理过程。采用黑盒技术设计测试用例的方法有:等价类划分、边界值分析、错误推测、因果图和综合策略。
  性能测试是通过自动化的测试工具模拟多种正常、峰值以及异常负载条件来对系统的各项性能指标进行测试。负载测试和压力测试都属于性能测试,两者可以结合进行。通过负载测试,确定在各种工作负载下系统的性能,目标是测试当负载逐渐增加时,系统各项性能指标的变化情况。压力测试是通过确定一个系统的瓶颈或者不能接收的性能点,来获得系统能提供的最大服务级别的测试。
  界面测试,界面是软件与用户交互的最直接的层,界面的好坏决定用户对软件的第一印象。而且设计良好的界面能够引导用户自己完成相应的操作,起到向导的作用。同时界面如同人的面孔,具有吸引用户的直接优势。设计合理的界面能给用户带来轻松愉悦的感受和成功的感觉,相反由于界面设计的失败,让用户有挫败感,再实用强大的功能都可能在用户的畏惧与放弃中付诸东流。
  区别在于,功能测试关注产品的所有功能上,要考虑到每个细节功能,每个可能存在的功能问题。性能测试主要关注于产品整体的多用户并发下的稳定性和健壮性。界面测试更关注于用户体验上,用户使用该产品的时候是否易用,是否易懂,是否规范(快捷键之类的),是否美观(能否吸引用户的注意力),是否安全(尽量在前台避免用户无意输入无效的数据,当然考虑到体验性,不能太粗鲁的弹出警告)?做某个性能测试的时候,首先它可能是个功能点,首先要保证它的功能是没问题的,然后再考虑该功能点的性能测试

67、请试着比较一下黑盒测试、白盒测试、单元测试、集成测试、系统测试、验收测试的区别与联系。
  黑盒测试:已知产品的功能设计规格,可以进行测试证明每个实现了的功能是否符合要求。
  白盒测试:已知产品的内部工作过程,可以通过测试证明每种内部操作是否符合设计规格要求,所有内部成分是否以经过检查。
  软件的黑盒测试意味着测试要在软件的接口处进行。这种方法是把测试对象看做一个黑盒子,测试人员完全不考虑程序内部的逻辑结构和内部特性,只依据程序的需求规格说明书,检查程序的功能是否符合它的功能说明。因此黑盒测试又叫功能测试或数据驱动测试。黑盒测试主要是为了发现以下几类错误:
  1、是否有不正确或遗漏的功能?2、在接口上,输入是否能正确的接受?能否输出正确的结果?3、是否有数据结构错误或外部信息(例如数据文件)访问错误?4、性能上是否能够满足要求?5、是否有初始化或终止性错误?
  软件的白盒测试是对软件的过程性细节做细致的检查。这种方法是把测试对象看做一个打开的盒子,它允许测试人员利用程序内部的逻辑结构及有关信息,设计或选择测试用例,对程序所有逻辑路径进行测试。通过在不同点检查程序状态,确定实际状态是否与预期的状态一致。因此白盒测试又称为结构测试或逻辑驱动测试。白盒测试主要是想对程序模块进行如下检查:
  1、对程序模块的所有独立的执行路径至少测试一遍。
  2、对所有的逻辑判定,取“真”与取“假”的两种情况都能至少测一遍。
  3、在循环的边界和运行的界限内执行循环体。
  4、测试内部数据结构的有效性,等等。
  单元测试(模块测试)是开发者编写的一小段代码,用于检验被测代码的一个很小的、很明确的功能是否正确。通常而言,一个单元测试是用于判断某个特定条件(或者场景)下某个特定函数的行为。
  单元测试是由程序员自己来完成,最终受益的也是程序员自己。可以这么说,程序员有责任编写功能代码,同时也就有责任为自己的代码编写单元测试。执行单元测试,就是为了证明这段代码的行为和我们期望的一致。
  集成测试(也叫组装测试,联合测试)是单元测试的逻辑扩展。它的最简单的形式是:两个已经测试过的单元组合成一个组件,并且测试它们之间的接口。从这一层意义上讲,组件是指多个单元的集成聚合。在现实方案中,许多单元组合成组件,而这些组件又聚合成程序的更大部分。方法是测试片段的组合,并最终扩展进程,将您的模块与其他组的模块一起测试。最后,将构成进程的所有模块一起测试。
  系统测试是将经过测试的子系统装配成一个完整系统来测试。它是检验系统是否确实能提供系统方案说明书中指定功能的有效方法。(常见的联调测试)
  系统测试的目的是对最终软件系统进行全面的测试,确保最终软件系统满足产品需求并且遵循系统设计。
  验收测试是部署软件之前的最后一个测试操作。验收测试的目的是确保软件准备就绪,并且可以让最终用户将其用于执行软件的既定功能和任务。
验收测试是向未来的用户表明系统能够像预定要求那样工作。经集成测试后,已经按照设计把所有的模块组装成一个完整的软件系统,接口错误也已经基本排除了,接着就应该进一步验证软件的有效性,这就是验收测试的任务,即软件的功能性能如同用户所合理期待的那样。

68、当开发人员说不是BUG时,你如何应付?
  开发人员说不是bug,有2种情况,一是需求没有确定,所以我可以这么做,这个时候可以找来产品经理进行确认,需不需要改动,3方商量确定好后再看要不要改。二是这种情况不可能发生,所以不需要修改,这个时候,我可以先尽可能的说出是BUG的依据是什么?如果被用户发现或出了问题,会有什么不良结果?程序员可能会给你很多理由,你可以对他的解释进行反驳。如果还是不行,那我可以给这个问题提出来,跟开发经理和测试经理进行确认,如果要修改就改,如果不要修改就不改。其实有些真的不是bug,我也只是建议的方式写进TD中,如果开发人员不修改也没有大问题。如果确定是bug的话,一定要坚持自己的立场,让问题得到最后的确认。

69、为什么要在一个团队中开展软件测试工作?

因为没有经过测试的软件很难在发布之前知道该软件的质量,就好比ISO质量认证一样,测试同样也需要质量的保证,这个时候就需要在团队中开展软件测试的工作。在测试的过程发现软件中存在的问题,及时让开发人员得知并修改问题,在即将发布时,从测试报告中得出软件的质量情况。

71、一份测试计划应该包括哪些内容?

背景、项目简介、目的、测试范围、测试策略、人员分工、资源要求、进度计划、参考文档、常用术语、提交文档、风险分析。

72、针对于软件的行业背景,你如何理解软件的业务?

阅读用户手册了解软件的功能和操作流程;看一些业务的专业书籍补充业务知识;如果有用户实际的数据,可以拿实际的数据进行参考;参考以前的用例和BUG报告;在使用软件的过程中多思考;多与产品经理交流。

74、如何定位测试用例的作用?

组织性:编写、组织性、功能覆盖、重复性、跟踪、测试确认

76、什么是兼容性测试?请举例说明如何利用兼容性测试列表进行测试。

主要验证软件产品在不同版本之间的兼容性。包括向下兼容和交错兼容,向下兼容是测试软件新版本保留它早期版本功能的情况,交错兼容是验证共同存在的两个相关但不相同的产品之间的兼容性。

77、对某软件进行测试,发现在WIN98上运行得很慢,怎么判别是该软件存在问题还是其软硬件运行环境存在问题?

看软件的运行环境要求。如果符合要求则是程序存在问题,若不符合要求则是硬件系统存在问题

78、需求测试的注意事项有哪些?

是否使用了公司的模板、文档内容是否符合规范、所有的需求是分级是否清析适当、所有的需求是否具有一致性、需求是否可行(即,该需求组合有解决方案)、需求可否用己知的约束来实现、需求是否足够(即,可以把它送到一个规范的开发组织,并有一个生产出所需要产品的合理的可能性)、所有的其它需求是交叉引用是否正确、用户描述是否清楚、是否用客户的语言来描述需求、每个需求描述是否清楚没有岐义,可以移交给一个独立的组去实现时也能理解、是否所有的需求都是可验证的、是否每条需求都具有独立性,即使发生了变化也不会影响其它需求、性能指标是否明确、非功能性需求是否得到充分表现、是否完整列出适用的标准或协议、标准和协议之间是否存在冲突

81、主键、外键的作用,索引的优点与不足?

  答:主键:是表中的唯一标示键。作用:保证实体的完整性;加快数据库的操作速度;增加新的表记录时,数据库会自动检索新记录的主键值,不允许该值与其他表中记录的主键重复;数据库会按主键值的顺序显示记录,如果没有设定主键,则按输入的顺序显示记录。

  外键:是主键的从属,表示了两个表之间的联系。作用:使用外键可以避免冗余。

索引的优点: 1、通过创建唯一性的索引,可以保证表中数据的唯一性; 2、加速数据的检索速度; 3、加快表与表之间的连接; 4、在使用分组与排序数据检索时,可以显著检索分组与排序的时间; 5、在查询的过程中使用优化隐藏器,提供系统性能。

缺点: 1、创建索引需要时间,且随着数据量的增加而增加; 2、索引需要占用物理空间;

    3、当对表中数据进行修改时,索引也要动态维护,降低了数据的维护速度。

84、性能测试的流程?

  1.测试需求分析2.测试计划制定与评审3.测试用例设计与开发4.测试执行与监控5.分析测试结果6.编写性能测试报告7.测试经验总结

88、简述bug的生命周期?

  1, 有效地记录BUG 2, 使用BUG模板 3, 评价BUG优先级和严重性 4, BUG的生命 5, 维护BUG数据库

89、缺陷记录应包含的内容?

  缺陷标识、缺陷类型、缺陷严重程度、缺陷产生可能性、缺陷优先级、缺陷状态、缺陷起源、缺陷来源、缺陷原因;

91 您所熟悉的软件测试类型都有哪些?请试着分别比较这些不同的测试类型的区别与联系(如功能测试、性能测试……)

  易用性测试-界面的友好性,操作方便性等。

  功能测试-系统中功能性需求的满足

  安全性测试-系统是否存在安全隐患和漏洞

  性能测试-系统在大并发下的响应速度和健壮性

93、您认为做好测试计划工作的关键是什么?

  了解项目或系统的业务需求

  和项目经理协调好,了解项目的进度计划安排情况

95您认为做好测试用例设计工作的关键是什么?

  对业务和软件需求非常清楚,可以根据需求不同选择不同的测试用例设计

96、.您以往的工作中是否曾开展过测试用例的评审工作?如果有,请描述测试用例评审的过程和评审的内容。

  评审计划->预审->评审;

  评审内容主要是测试用例对软件需求的覆盖程度,对于相关边界是否考虑,是否针对复杂流程准备多套测试数据,是否有专门针对非功能性需求的测试。

98.您认为性能测试工作的目的是什么?做好性能测试工作的关键是什么?

  关键是测试脚本的录制,测试时候测试环境的干净。

100、.您以往所从事的软件测试工作中,是否使用了一些工具来进行软件缺陷(Bug)的管理?如果有,请结合该工具描述软件缺陷(Bug)跟踪管理的流程。

  CQ,也可以使用BugFree等免费工具。

101、.您如何看待软件过程改进?在您曾经工作过的企业中,是否有一些需要改进的东西呢?您期望的理想的测试人员的工作环境是怎样的?

  将先进的经验或思想固化到过程中,通过过程改进和能力提高来改进软件质量。

变态的质量源自于变态的过程管理

六西格玛:sigma:标准差
假设有一组数值X₁,X₂,X₃,……Xn(皆为实数),其平均值(算术平均值)为μ
标准差也被称为标准偏差,或者实验标准差,公式为 【(x-μ)*(x-μ)加和】/n 再开方
标准差越小,产品稳定性越高

github设置添加SSH

很多朋友在用github管理项目的时候,都是直接使用https url克隆到本地,当然也有有些人使用 SSH url 克隆到本地。然而,为什么绝大多数人会使用https url克隆呢?

这是因为,使用https url克隆对初学者来说会比较方便,复制https url 然后到 Git Bash 里面直接用clone命令克隆到本地就好了。而使用 SSH url 克隆却需要在克隆之前先配置和添加好 SSH key 。

因此,如果你想要使用 SSH url 克隆的话,你必须是这个项目的拥有者。否则你是无法添加 SSH key 的。

https 和 SSH 的区别:

1、前者可以随意克隆github上的项目,而不管是谁的;而后者则是你必须是你要克隆的项目的拥有者或管理员,且需要先添加 SSH key ,否则无法克隆。

2、https url 在push的时候是需要验证用户名和密码的;而 SSH 在push的时候,是不需要输入用户名的,如果配置SSH key的时候设置了密码,则需要输入密码的,否则直接是不需要输入密码的。

在 github 上添加 SSH key 的步骤:

1、首先需要检查你电脑是否已经有 SSH key

运行 git Bash 客户端,输入如下代码:

$ cd ~/.ssh
$ ls

这两个命令就是检查是否已经存在 id_rsa.pub 或 id_dsa.pub 文件,如果文件已经存在,那么你可以跳过步骤2,直接进入步骤3。

2、创建一个 SSH key

$ ssh-keygen -t rsa -C "your_email@example.com"

代码参数含义:

-t 指定密钥类型,默认是 rsa ,可以省略。
-C 设置注释文字,比如邮箱。
-f 指定密钥文件存储文件名。

以上代码省略了 -f 参数,因此,运行上面那条命令后会让你输入一个文件名,用于保存刚才生成的 SSH key 代码,如:

Generating public/private rsa key pair.
# Enter file in which to save the key (/c/Users/you/.ssh/id_rsa): [Press enter]

当然,你也可以不输入文件名,使用默认文件名(推荐),那么就会生成 id_rsa 和 id_rsa.pub 两个秘钥文件。

接着又会提示你输入两次密码(该密码是你push文件的时候要输入的密码,而不是github管理者的密码),

当然,你也可以不输入密码,直接按回车。那么push的时候就不需要输入密码,直接提交到github上了,如:

Enter passphrase (empty for no passphrase): 
# Enter same passphrase again:

接下来,就会显示如下代码提示,如:

Your identification has been saved in /c/Users/you/.ssh/id_rsa.
# Your public key has been saved in /c/Users/you/.ssh/id_rsa.pub.
# The key fingerprint is:
# 01:0f:f4:3b:ca:85:d6:17:a1:7d:f0:68:9d:f0:a2:db your_email@example.com

当你看到上面这段代码的收,那就说明,你的 SSH key 已经创建成功,你只需要添加到github的SSH key上就可以了。

3、添加你的 SSH key 到 github上面去

a、首先你需要拷贝 id_rsa.pub 文件的内容,你可以用编辑器打开文件复制,也可以用git命令复制该文件的内容,如:

$ clip < ~/.ssh/id_rsa.pub

b、登录你的github账号,从又上角的设置( Account Settings )进入,然后点击菜单栏的 SSH key 进入页面添加 SSH key。

c、点击 Add SSH key 按钮添加一个 SSH key 。把你复制的 SSH key 代码粘贴到 key 所对应的输入框中,记得 SSH key 代码的前后不要留有空格或者回车。当然,上面的 Title 所对应的输入框你也可以输入一个该 SSH key 显示在 github 上的一个别名。默认的会使用你的邮件名称。

4、测试一下该SSH key

在git Bash 中输入以下代码

$ ssh -T git@github.com

当你输入以上代码时,会有一段警告代码,如:

The authenticity of host 'github.com (207.97.227.239)' can't be established.
# RSA key fingerprint is 16:27:ac:a5:76:28:2d:36:63:1b:56:4d:eb:df:a6:48.
# Are you sure you want to continue connecting (yes/no)?

这是正常的,你输入 yes 回车既可。如果你创建 SSH key 的时候设置了密码,接下来就会提示你输入密码,如:

Enter passphrase for key '/c/Users/Administrator/.ssh/id_rsa':

当然如果你密码输错了,会再要求你输入,知道对了为止。

注意:输入密码时如果输错一个字就会不正确,使用删除键是无法更正的。

密码正确后你会看到下面这段话,如:

Hi username! You've successfully authenticated, but GitHub does not
# provide shell access.

如果用户名是正确的,你已经成功设置SSH密钥。如果你看到 “access denied” ,者表示拒绝访问,那么你就需要使用 https 去访问,而不是 SSH 。

如果你有什么疑问或指正,请留言。

参考文档:https://help.github.com/articles/generating-ssh-keys

Ubuntu 14.04快速搭建SVN服务器及日常使用

1、介绍
Subversion是一个自由,开源的版本控制系统,这个版本库就像一个普通的文件服务器,不同的是,它可以记录每一次文件和目录的修改情况。这样就可以很方面恢复到以前的版本,并可以查看数据更改细节。目前,Subversion已成为主流的开源代码版本管理软件之一,简称SVN。
2、SVN相关命令了解
svn:命令行客户端
svnadmin:用来创建、调整或修复版本库的工具
svnserve:svn服务程序
svndumpfilter:过滤svn版本库转储数据流的工具
svnsync:svn数据同步工具,实现另外存一份相同的
svnlook:用来查看办本科中不同的修订版和事务
3、两种运行模式
3.1 利用svnserve作为独立服务运行,通过svn协议访问

3.2 借助mod_dev_svn模块,由apache服务运行(Web/DAV),通过http或https协议访问。想了解此运行模式可以参考着篇:http://www.linuxidc.com/Linux/2013-12/94315.htm

4、安装与部署
对于Ubuntu来说,装个SVN是件很容易的事,Ubuntu 14.04可以直接通过apt软件包管理安装。
4.1 直接安装
# sudo apt-get install subversion
4.1 创建版本库
# sudo mkdir /home/svn
# sudo svnadmin create /home/svn/repos
4.2 了解版本库
# 进入版本库查看生成的相关文件
# cd /home/svn/repos/
# ls
conf  db  format  hooks  locks  README.txt
# 我们主要关心的是conf和db文件,conf文件夹下是存放主配置文件和用户、权限位置,db文件夹是存放svn转储后的数据。
# cd conf/
# ls
authz  passwd  svnserve.conf
# authz文件是设置用户权限,passwd文件是存储用户及密码,svnserve.conf是主配置文件,先配置主配置文件。
4.3 配置版本库
# sudo vi svnserve.conf  #将以下参数去掉注释
[general]
anon-access = none    #匿名访问权限,默认read,none为不允许访问
auth-access = write  #认证用户权限
password-db = passwd  #用户信息存放文件,默认在版本库/conf下面,也可以绝对路径指定文件位置
authz-db = authz

# sudo vi passwd    #格式是用户名=密码,采用明文密码
[users]
xiaoming = 123
zhangsan = 123
lisi = 123

# sudo vi authz
[groups]          #定义组的用户
manager = xiaoming
core_dev = zhangsan,lisi
[repos:/]          #以根目录起始的repos版本库manager组为读写权限
@manager = rw
[repos:/media]    #core_dev对repos版本库下media目录为读写权限
@core_dev = rw

4.4 启动svn服务
# sudo svnserve -d -r /home/svn
# 查看是否启动成功,可看的监听3690端口
# sudo netstat -antp |grep svnserve
tcp    0      0 0.0.0.0:3690    0.0.0.0:*      LISTEN    28967/svnserve
# 如果想关闭服务,可使用pkill svnserve
4.5 访问svn
# 访问repos版本库地址
svn://192.168.1.100/repos
# 访问repos/media目录地址
svn://192.168.1.100/repos/media
# Windows下客户端访问svn服务器
客户端下载地址:http://tortoisesvn.net/downloads.html
连接方式:安装客户端后 –> 右击桌面 –> 点TortoiseSVN –> 选择Repo-breowser –> 输入URL(svn://192.168.1.100/repos)–> 输入manager组的xiaoming用户和密码登录 –> 登录后右击即可上传和删除文件

5、常用svn命令
5.1 获取当前最新修订版本号
svnlook youngest /home/svn/repos
5.2 将服务器上代码目录同步到本地目录
svn checkout svn://192.168.1.100/repos/media /svn –username zhangsan –password 123
#不指定同步到本地目录(/svn)默认是当前目录,也可以不指定用户名和密码,需要手动输入。或使用简写svn co “svn://…”。
5.3 把新建文件提交到svn版本库
具体步骤:
a) cd /svn    #切换到本地代码目录,
b) svn add filename
#将文件加入svn管理,此时并未提交完成,另外提交文件也要在/svn目录,否则报”svn: ‘..’ is not a working copy”
c) svn ci filename
#添加注释说明并提交文件,此时会用nano编辑器打开,添加注释说明后按ctrl+x,再按y,最后回车完成提交
5.4 把修改后的文件提交到svn
svn commit -m “注释说明” filename
5.5 更新代码到最新版本
# 将代码目录所有文件更新到最新版本
svn update
# 将某个文件还原到某个版本
svn update -r 85 filename #85是修订版号
5.6 对代码加锁/解锁
# 加锁
svn lock -m “注释说明” filename
# 解锁
svn unlock filename
5.7 代码更新冲突
如果提交时提供过期的话,说明代码冲突,需先svn update filename,再执行svn resolved filename,最后提交svn commit -m “注释说明” filename
5.8 查看日志
svn log filename
5.9 查看文件信息
svn info filename
5.10 版本库合并
把库1合并到库2中:先把库2代码checkout到本地目录(svn co url2),再进此目录执行迁移(svn merge url1)即可
6、备份方式
6.1 svnadmin dump是官方推荐的备份方式,适用于量小(100G左右)版本库备份,可增量备份,备份恢复较慢。
6.2 svnadmin hotcopy是全量热拷贝的工具,因此磁盘占用多,适用于量大(100G以上)版本库备份,但不能达到增量备份效果,备份恢复快。
6.3 svnsync是一种实时备份方式,将数据完全复制到另一台版本库,当这台机器故障,可迅速切换到备份那台。
7、备份与恢复
7.1 svnadmin dump备份
# 完整备份
svnadmin dump /home/svn/repos > YYmmdd_fully_backup.svn
# 完整压缩备份
svnadmin dump /home/svn/repos | gzip > YYmmdd_fully_backup.gz
# 备份恢复
svnadmin load /home/svn/repos < YYmmdd_fully_backup.svn
zcat YYmmdd_fully_backup.gz | svnadmin load repos
### 增量备份 ###
# 先完整备份
svnadmin dump /home/svn/repos -r 0:100 > YYmmdd_incremental_backup.svn
# 再增量备份
svnadmin dump /home/svn/repos -r 101:200 –incremental > YYmmdd_incremental_backup.svn
7.2 svnadmin hotcopy备份

# 备份
svnadmin hotcopy /home/svn/repos YYmmdd_fully_backup –clean-logs
# 恢复
svnadmin hotcopy YYmmdd_fully_backup /home/svn/repos

Ubuntu 14.04 下搭建SVN服务器 svn://  http://www.linuxidc.com/Linux/2015-01/111956.htm

CentOS 6.2 SVN搭建 (YUM安装) http://www.linuxidc.com/Linux/2013-10/91903.htm

CentOS 6.5部署Apache+SVN  http://www.linuxidc.com/Linux/2013-12/94315.htm

Apache+SVN搭建SVN服务器 http://www.linuxidc.com/Linux/2013-03/81379.htm

Windows下SVN服务器搭建和使用 + 客户端重新设置密码 http://www.linuxidc.com/Linux/2013-05/85189p5.htm

Ubuntu Server 12.04 安装 SVN 并迁移 Virtual SVN数据 http://www.linuxidc.com/Linux/2013-05/84695.htm

Ubuntu Server搭建svn服务以及迁移方法 http://www.linuxidc.com/Linux/2013-05/84693.htm

更多Ubuntu相关信息见Ubuntu 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=2

本文永久更新链接地址http://www.linuxidc.com/Linux/2015-05/117735.htm

如何制定设计部kpi

Measuring the User Experience on a Large Scale:
User-Centered Metrics for Web Applications
Kerry Rodden, Hilary Hutchinson, and Xin Fu
Google
1600 Amphitheatre Parkway, Mountain View, CA 94043, USA
{krodden, hhutchinson, xfu}@google.com
ABSTRACT
More and more products and services are being deployed
on the web, and this presents new challenges and
opportunities for measurement of user experience on a large
scale. There is a strong need for user-centered metrics for
web applications, which can be used to measure progress
towards key goals, and drive product decisions. In this
note, we describe the HEART framework for user-centered
metrics, as well as a process for mapping product goals to
metrics. We include practical examples of how HEART
metrics have helped product teams make decisions that are
both data-driven and user-centered. The framework and
process have generalized to enough of our company’s own
products that we are confident that teams in other
organizations will be able to reuse or adapt them. We also
hope to encourage more research into metrics based on
large-scale behavioral data.
Author Keywords
Metrics, web analytics, web applications, log analysis.
ACM Classification Keywords
H.5.2 [Information interfaces and presentation]: User
Interfaces—benchmarking, evaluation/methodology.
General Terms
Experimentation, Human Factors, Measurement.
INTRODUCTION
Advances in web technology have enabled more
applications and services to become web-based and
increasingly interactive. It is now possible for users to do a
wide range of common tasks “in the cloud”, including those
that were previously restricted to native client applications
(e.g. word processing, editing photos). For user experience
professionals, one of the key implications of this shift is the
ability to use web server log data to track product usage on
a large scale. With additional instrumentation, it is also
possible to run controlled experiments (A/B tests) that
compare interface alternatives. But on what criteria should
they be compared, from a user-centered perspective? How
should we scale up the familiar metrics of user experience,
and what new opportunities exist?
In the CHI community, there is already an established
practice of measuring attitudinal data (such as satisfaction)
on both a small scale (in the lab) and a large scale (via
surveys). However, in terms of behavioral data, the
established measurements are mostly small-scale, and
gathered with stopwatches and checklists as part of lab
experiments, e.g. effectiveness (task completion rate, error
rate) and efficiency (time-on-task) [13].
A key missing piece in CHI research is user experience
metrics based on large-scale behavioral data. The web
analytics community has been working to shift the focus
from simple page hit counts to key performance indicators.
However, the typical motivations in that community are
still largely business-centered rather than user-centered.
Web analytics packages provide off-the-shelf metrics
solutions that may be too generic to address user experience
questions, or too specific to the e-commerce context to be
useful for the wide range of applications and interactions
that are possible on the web.
We have created a framework and process for defining
large-scale user-centered metrics, both attitudinal and
behavioral. We generalized these from our experiences of
working at a large company whose products cover a wide
range of categories (both consumer-oriented and businessoriented),
are almost all web-based, and have millions of
users each. We have found that the framework and process
have been applicable to, and useful for, enough of our
company’s own products that we are confident that teams in
other organizations will be able to reuse or adapt them
successfully. We also hope to encourage more research into
metrics based on large-scale behavioral data, in particular.
RELATED WORK
Many tools have become available in recent years to help
with the tracking and analysis of metrics for web sites and
applications. Commercial and freely available analytics
© ACM, 2010. This is the author’s version of the work. It is posted here
by permission of ACM for your personal use. Not for redistribution. The
definitive version was published in the Proceedings of CHI 2010, April
10–15, 2010, Atlanta, Georgia, USA.
packages [5,11] provide off the shelf solutions. Custom
analysis of large-scale log data is made easier via modern
distributed systems [4,8] and specialized programming
languages [e.g. 12]. Web usage mining techniques can be
used to segment visitors to a site according to their behavior
[3]. Multiple vendors support rapid deployment and
analysis of user surveys, and some also provide software for
large-scale remote usability or benchmarking tests [e.g. 14].
A large body of work exists on the proper design and
analysis of controlled A/B tests [e.g. 10] where two similar
populations of users are given different user interfaces, and
their responses can be rigorously measured and compared.
Despite this progress, it can still be challenging to use these
tools effectively. Standard web analytics metrics may be
too generic to apply to a particular product goal or research
question. The sheer amount of data available can be
overwhelming, and it is necessary to scope out exactly what
to look for, and what actions will be taken as a result.
Several experts suggest a best practice of focusing on a
small number of key business or user goals, and using
metrics to help track progress towards them [2, 9, 10]. We
share this philosophy, but have found that this is often
easier said than done. Product teams have not always
agreed on or clearly articulated their goals, which makes
defining related metrics difficult.
It is clear that metrics should not stand alone. They should
be triangulated with findings from other sources, such as
usability studies and field studies [6,9], which leads to
better decision-making [15]. Also, they are primarily useful
for evaluation of launched products, and are not a substitute
for early or formative user research. We sought to create a
framework that would combine large-scale attitudinal and
behavioral data, and complement, not replace, existing user
experience research methods in use at our company.
PULSE METRICS
The most commonly used large-scale metrics are focused
on business or technical aspects of a product, and they (or
similar variations) are widely used by many organizations
to track overall product health. We call these PULSE
metrics: Page views, Uptime, Latency, Seven-day active
users (i.e. the number of unique users who used the product
at least once in the last week), and Earnings.
These metrics are all extremely important, and are related to
user experience – for example, a product that has a lot of
outages (low uptime) or is very slow (high latency) is
unlikely to attract users. An e-commerce site whose
purchasing flow has too many steps is likely to earn less
money. A product with an excellent user experience is
more likely to see increases in page views and unique users.
However, these are all either very low-level or indirect
metrics of user experience, making them problematic when
used to evaluate the impact of user interface changes. They
may also have ambiguous interpretation – for example, a
rise in page views for a particular feature may occur
because the feature is genuinely popular, or because a
confusing interface leads users to get lost in it, clicking
around to figure out how to escape. A change that brings in
more revenue in the short term may result in a poorer user
experience that drives away users in the longer term.
A count of unique users over a given time period, such as
seven-day active users, is commonly used as a metric of
user experience. It measures the overall volume of the user
base, but gives no insight into the users’ level of
commitment to the product, such as how frequently each of
them visited during the seven days. It also does not
differentiate between new users and returning users. In a
worst-case retention scenario of 100% turnover in the user
base from week to week, the count of seven-day active
users could still increase, in theory.
HEART METRICS
Based on the shortcomings we saw in PULSE, both for
measuring user experience quality, and providing
actionable data, we created a complementary metrics
framework, HEART: Happiness, Engagement, Adoption,
Retention, and Task success. These are categories, from
which teams can then define the specific metrics that they
will use to track progress towards goals. The Happiness and
Task Success categories are generalized from existing user
experience metrics: Happiness incorporates satisfaction,
and Task Success incorporates both effectiveness and
efficiency. Engagement, Adoption, and Retention are new
categories, made possible by large-scale behavioral data.
The framework originated from our experiences of working
with teams to create and track user-centered metrics for
their products. We started to see patterns in the types of
metrics we were using or suggesting, and realized that
generalizing these into a framework would make the
principles more memorable, and usable by other teams.
It is not always appropriate to employ metrics from every
category, but referring to the framework helps to make an
explicit decision about including or excluding a particular
category. For example, Engagement may not be meaningful
in an enterprise context, if users are expected to use the
product as part of their work. In this case a team may
choose to focus more on Happiness or Task Success. But it
may still be meaningful to consider Engagement at a feature
level, rather than the overall product level.
Happiness
We use the term “Happiness” to describe metrics that are
attitudinal in nature. These relate to subjective aspects of
user experience, like satisfaction, visual appeal, likelihood
to recommend, and perceived ease of use. With a general,
well-designed survey, it is possible to track the same
metrics over time to see progress as changes are made.
For example, our site has a personalized homepage,
iGoogle. The team tracks a number of metrics via a weekly
in-product survey, to understand the impact of changes and
new features. After launching a major redesign, they saw
an initial decline in their user satisfaction metric (measured
on a 7-point bipolar scale). However, this metric recovered
over time, indicating that change aversion was probably the
cause, and that once users got used to the new design, they
liked it. With this information, the team was able to make a
more confident decision to keep the new design.
Engagement
Engagement is the user’s level of involvement with a
product; in the metrics context, the term is normally used to
refer to behavioral proxies such as the frequency, intensity,
or depth of interaction over some time period. Examples
might include the number of visits per user per week, or the
number of photos uploaded per user per day. It is generally
more useful to report Engagement metrics as an average per
user, rather than as a total count – because an increase in
the total could be a result of more users, not more usage.
For example, the Gmail team wanted to understand more
about the level of engagement of their users than was
possible with the PULSE metric of seven-day active users
(which simply counts how many users visited the product at
least once within the last week). With the reasoning that
engaged users should check their email account regularly,
as part of their daily routine, our chosen metric was the
percentage of active users who visited the product on five
or more days during the last week. We also found that this
was strongly predictive of longer-term retention, and
therefore could be used as a bellwether for that metric.
Adoption and Retention
Adoption and Retention metrics can be used to provide
stronger insight into counts of the number of unique users
in a given time period (e.g. seven-day active users),
addressing the problem of distinguishing new users from
existing users. Adoption metrics track how many new users
start using a product during a given time period (for
example, the number of accounts created in the last seven
days), and Retention metrics track how many of the users
from a given time period are still present in some later time
period (for example, the percentage of seven-day active
users in a given week who are still seven-day active three
months later). What counts as “using” a product can vary
depending on its nature and goals. In some cases just
visiting its site might count. In others, you might want to
count a visitor as having adopted a product only if they
have successfully completed a key task, like creating an
account. Like Engagement, Retention can be measured over
different time periods – for some products you might want
to look at week-to-week Retention, while for others
monthly or 90-day might be more appropriate. Adoption
and Retention tend to be especially useful for new products
and features, or those undergoing redesigns; for more
established products they tend to stabilize over time, except
for seasonal changes or external events.
For example, during the stock market meltdown in
September 2008, Google Finance had a surge in both page
views and seven-day active users. However, these metrics
did not indicate whether the surge was driven by new users
interested in the crisis, or existing users panic-checking
their investments. Without knowing who was making more
visits, it was difficult to know if or how to change the site.
We looked at Adoption and Retention metrics to separate
these user types, and examine the rate at which new users
were choosing to continue using the site. The team was
able to use this information to better understand the
opportunities presented by event-driven traffic spikes.
Task Success
Finally, the “Task Success” category encompasses several
traditional behavioral metrics of user experience, such as
efficiency (e.g. time to complete a task), effectiveness (e.g.
percent of tasks completed), and error rate. One way to
measure these on a large scale is via a remote usability or
benchmarking study, where users can be assigned specific
tasks. With web server log file data, it can be difficult to
know which task the user was trying to accomplish,
depending on the nature of the site. If an optimal path exists
for a particular task (e.g. a multi-step sign-up process) it is
possible to measure how closely users follow it [7].
For example, Google Maps used to have two different types
of search boxes – a dual box for local search, where users
could enter the “what” and “where” aspects separately (e.g.
[pizza][nyc]) and a single search box that handled all kinds
of searches (including local searches such as [pizza nyc], or
[nyc] followed by [pizza]). The team believed that the
single-box approach was simplest and most efficient, so, in
an A/B test, they tried a version that offered only the single
box. They compared error rates in the two versions, finding
that users in the single-box condition were able to
successfully adapt their search strategies. This assured the
team that they could remove the dual box for all users.
GOALS – SIGNALS – METRICS
No matter how user-centered a metric is, it is unlikely to be
useful in practice unless it explicitly relates to a goal, and
can be used to track progress towards that goal. We
developed a simple process that steps teams through
articulating the goals of a product or feature, then
identifying signals that indicate success, and finally
building specific metrics to track on a dashboard.
Goals
The first step is identifying the goals of the product or
feature, especially in terms of user experience. What tasks
do users need to accomplish? What is the redesign trying to
achieve? Use the HEART framework to prompt articulation
of goals (e.g. is it more important to attract new users, or to
encourage existing users to become more engaged?). Some
tips that we have found helpful:
• Different team members may disagree about what the
project goals are. This process provides a great
opportunity to collect all the different ideas and work
towards consensus (and buy-in for the chosen metrics).
• Goals for the success of a particular project or feature
may be different from those for the product as a whole.
• Do not get too distracted at this stage by worrying
about whether or how it will be possible to find
relevant signals or metrics.
Signals
Next, think about how success or failure in the goals might
manifest itself in user behavior or attitudes. What actions
would indicate the goal had been met? What feelings or
perceptions would correlate with success or failure? At this
stage you should consider what your data sources for these
signals will be, e.g. for logs-based behavioral signals, are
the relevant actions currently being logged, or could they
be? How will you gather attitudinal signals – could you
deploy a survey on a regular basis? Logs and surveys are
the two signal sources we have used most often, but there
are other possibilities (e.g. using a panel of judges to
provide ratings). Some tips that we have found helpful:
• Choose signals that are sensitive and specific to the
goal – they should move only when the user experience
is better or worse, not for other, unrelated reasons.
• Sometimes failure is easier to identify than success (e.g
abandonment of a task, “undo” events [1], frustration).
Metrics
Finally, think about how these signals can be translated into
specific metrics, suitable for tracking over time on a
dashboard. Some tips that we have found helpful:
• Raw counts will go up as your user base grows, and
need to be normalized; ratios, percentages, or averages
per user are often more useful.
• There are many challenges in ensuring accuracy of
metrics based on web logs, such as filtering out traffic
from automated sources (e.g. crawlers, spammers), and
ensuring that all of the important user actions are being
logged (which may not happen by default, especially in
the case of AJAX or Flash-based applications).
• If it is important to be able to compare your project or
product to others, you may need to track additional
metrics from the standard set used by those products.
CONCLUSIONS
We have spent several years working on the problem of
developing large-scale user-centered product metrics. This
has led to our development of the HEART framework and
the Goals-Signals-Metrics process, which we have applied
to more than 20 different products and projects from a wide
variety of areas within Google. We have described several
examples in this note of how the resulting metrics have
helped product teams make decisions that are both datadriven
and user-centered. We have also found that the
framework and process are extremely helpful for focusing
discussions with teams. They have generalized to enough of
our company’s own products that we are confident that
teams in other organizations will be able to reuse or adapt
them successfully. We have fine-tuned both the framework
and process over more than a year of use, but the core of
each has remained stable, and the framework’s categories
are comprehensive enough to fit new metrics ideas into.
Because large-scale behavioral metrics are relatively new,
we hope to see more CHI research on this topic – for
example, to establish which metrics in each category give
the most accurate reflection of user experience quality.
ACKNOWLEDGMENTS
Thanks to Aaron Sedley, Geoff Davis, and Melanie Kellar
for contributing to HEART, and Patrick Larvie for support.
REFERENCES
1. Akers, D. et al. (2009). Undo and Erase Events as
Indicators of Usability Problems. Proc of CHI 2009,
ACM Press, pp. 659-668.
2. Burby, J. & Atchison, S. (2007). Actionable Web
Analytics. Indianapolis: Wiley Publishing, Inc.
3. Chi, E. et al. (2002). LumberJack: Intelligent Discovery
and Analysis of Web User Traffic Composition. Proc of
WebKDD 2002, ACM Press, pp. 1-15.
4. Dean, J. & Ghemawat, S. (2008). MapReduce:
Simplified Data Processing on Large Clusters.
Communications of the ACM, 51 (1), pp. 107-113.
5. Google Analytics: http://www.google.com/analytics
6. Grimes, C. et al. (2007). Query Logs Alone are not
Enough. Proc of WWW 07 Workshop on Query Log
Analysis: http://querylogs2007.webir.org
7. Gwizdka, J. & Spence, I. (2007). Implicit Measures of
Lostness and Success in Web Navigation. Interacting
with Computers 19(3), pp. 357-369.
8. Hadoop: http://hadoop.apache.org/core
9. Kaushik, A. (2007). Web Analytics: An Hour a Day.
Indianapolis: Wiley Publishing, Inc.
10. Kohavi, R. et al. (2007). Practical Guide to Controlled
Experiments on the Web. Proc of KDD 07, ACM Press,
pp. 959-967.
11. Omniture: http://www.omniture.com
12. Pike, R. et al. (2005). Interpreting the Data: Parallel
Analysis with Sawzall. Scientific Programming (13), pp.
277-298.
13. Tullis, T. & Albert, W. (2008). Measuring the User
Experience. Burlington: Morgan Kaufmann.
14. UserZoom: http://www.userzoom.com
15. Weischedel, B. & Huizingh, E. (2006). Website
Optimization with Web Metrics: A Case Study. Proc of
ICEC 06, ACM Press, pp. 463-470.