您现在的位置是: 首页 > 热门汽车 热门汽车
abtest样本量的确定_abtest 样本量
2025-12-26 00:42:29 10人已围观
简介abtest样本量的确定_abtest 样本量 感谢大家给予我这个机会,让我为大家解答abtest样本量的确定的问题。这个问题集合囊括了一系列与abtest样本量的确定相关的问题,我将全力以赴地回答并提供有用的信息。1.abtest???????????2.产品经理如何做用户行为分析?3.分类器
感谢大家给予我这个机会,让我为大家解答abtest样本量的确定的问题。这个问题集合囊括了一系列与abtest样本量的确定相关的问题,我将全力以赴地回答并提供有用的信息。
1.abtest???????????
2.产品经理如何做用户行为分析?
3.分类器性能度量指标之ROC曲线、AUC值
4.方差分析小结
5.人白细胞抗原系统简介
6.如何对百度网页搜索的检索满意度指标进行评估?
abtest???????????
概念区别:T检验,亦称student检验(Student's test),主要用于样本含量较小(例如n<30),总体标准差σ未知的正态分布资料。Z检验是一般用于大样本(即样本容量大于30)平均值差异性检验的方法。它是用标准正态分布的理论来推断差异发生的概率,从而比较两个平均数平均数的差异是否显著。
区别一:z检验适用于变量符合z分布的情况,而t检验适用于变量符合t分布的情况;
区别二:t分布是z分布的小样本分布,即当总体符合z分布时,从总体中抽取的小样本符合t分布,而对于符合t分布的变量,当样本量增大时,变量数据逐渐向z分布趋近;
区别三:z检验和t检验都是均值差异检验方法,但t分布逐渐逼近z分布的特点,t检验的运用要比z检验更广泛,因为大小样本时都可以用t检验,而小样本时z检验不适用。SPSS里面只有t检验,没有z检验的功能模块。
注意:
①t检验是对各回归系数的显著性所进行的检验,t检验还可以用来检验样本为来自一元正态分布的总体的期望,即均值;和检验样本为来自二元正态分布的总体的期望是否相等。总体方差未知时,一般检验用t检验。
②z检验是一般用于大样本(即样本容量大于30)平均值差异性检验的方法。它是用标准正态分布的理论来推断差异发生的概率,从而比较两个平均数平均数的差异是否显著。当已知标准差时,验证一组数的均值是否与某一期望值相等时,用z检验。
424abfbb861c26251b878ed8b1956477.png
上表中t'和Z'分别表示近似t检验和近似Z检验。
a0540120ebb340dfa228c497f8e263aa.gif
点击阅读全文
打开CSDN,阅读体验更佳
Java基础--6--数组
1、理论基础 程序=算法+数据结构 算法:解决问题的流程。第一步、第二步、第三步……干什么。有顺序、分支、循环三种方式。 数据结构:把数据按特定的某种结构保存,设计合理的数据结构是解决问题的前提。 数组就是最基本的一种数据结构。它用来存储一系列数据,其中的每一项都具有相同的基本数据类型、类或相同的父类,每一项都有自己的位置,因此可以通过下标来进行定位。 数组的定义: 1、相同数据类型的元素组成的集合。 2、元素按照线性顺序排列。即一个挨一个,中间不能有空缺。 3、可以通过元素所在位置的顺序号做标识来访
继续访问
python t检验显著差异_基于python的显著性检验
需要用到numpy库import numpy as npimport scipy.stats as statsimport scipy.optimize as opt首先我们来创造两个数组作为测试数据n = 200norm_dist = stats.norm(loc=0.5, scale=10) #构造一个正态分布,均值为0.5,标准差为10 “标准差”也称“均方差”,是“方差”开根号dat ...
继续访问
python t检验显著差异_两组数据的均值是否具有显著差异的T检验
最近在做分析的时候,遇到了T检验,然而对于没有统计学背景的人来说完全不知如何下手当然了,遇到问题第一反应就是百度。果然百度出来了很多链接,当时第一次直接选择了用Excel去做T检验。下面是源数据LongevityNon-Longevity0.1662020310.1768211010.1607662080.1515766750.1577920.169683150.1495972250.135975...
继续访问
python中的T检验
在python中,检验常常是调用scipy.stats进行计算(官方文档:blogs.com/jiaxin359/p/7995073.html 统计学当中关于变量的分类
分类器性能度量指标之ROC曲线、AUC值
在这个每个互联网人都在谈论数据,每个产品经理都在谈论数据分析的时代,用户行为分析的重要性也越来越凸显出来,那么产品经理如何做用户行为分析呢?接下来将为大家进行分享。一、为什么要做用户行为分析
观点一:有些功能整个平台用户都希望做,是没有必要耗费人力评估的,只要做了就可以了。用户行为分析是形式,不能为了分析而分析。观点二:我都在这个行业做了这么多年了,用户需要什么难道我不知道吗?我本身就是用户,我可以代表他们,我的需求就是他们的需求目标。观点三:只需要做充分的调研分析就可以了,比如需求调研,产品使用调研,多找找目标用户,多让他们提一些反馈意见,根据反馈来做修改即可。观点四:不要总是顺着用户的意思去做产品。产品设计的核心是产品经理的想法,而不是用户的看法。
以上观点其实都是错误的,如果产品经理有这样的想法,会对自己极为不利。下面我们来看两个案例:
案例一:Growing IO 改版前后对比
视频介绍功能是所有用户都想要的,于是Growing IO毫不犹豫地把视频放在了首页,然后注册转化率下降了50%,持续观察两个周,注册转化率仍然没有显著增长,回滚到上个版本,注册转化率逐渐恢复。结论:
部分用户的观点无法代表全体用户的真实感受,视频介绍可能是伪需求。产品经理的主观感受无法代表用户的真实体验,任何人都无法代表用户。视频介绍分散了用户的注意力,导致首页注册转化率大幅度下跌。
案例二:Facebook改版之后再回滚
Facebook经过改版之后,页面更清爽了,展示面积更大了,突出了以及视频,展示信息更丰富,Facebook的产品经理、交互设计师都对这一版本非常有信心。然而10%灰度发布之后,用户平均在线时长降低50%,一个月后,数据仍然没有好转。
互联网产品要以数据为导向,而不仅仅凭借自己的主观感觉。产品设计过于超前了,产品版本迭代版本之间没有一定的过渡,用户无法习惯。
因此可以说,数据分析在日常工作中起到的是必不可少的作用。1、用户行为分析不是形式化,不是为了分析而分析,哪怕是核心用户提出的需求,也要通过数据来验证,任何人都无法代表真正的用户。2、产品经理要有自我革新,自我否定的意识。用户的需求是变的,不能太过于依赖过往的经验,过往的经验不可靠,只有数据最可靠。3、用户分析调研是一方面,只是为产品提供思路,但是是否有利于产品长期发展还是要通过数据来说话。4、用户端产品要以用户体验为核心,以数据为导向。
二、数据指标与名词含义
1、流量来源:流量来源的意思是网站的访问来源,比如用户来自于知乎,来自于微博等等。主要用来统计分析各渠道的推广效果。
2、PV:PV(page view)即页面浏览量或点击量,指页面刷新的次数,每一次页面刷新,就算做一次PV流量。
3、UV:UV(unique visitor)即独立访客数,在同一天内,UV只记录第一次进入网站的具有独立IP的访问者,在同一天内再次访问该网站则不计数。PV与UV的比值一定程度上反映产品的粘性,比值越高往往粘性越高。
4、IP数:IP数即独立IP的访问用户数,指1天内使用不同IP地址的用户访问网站的数量。IP数字与UV可能不同(可大可小可相等)
5、日活/月活:每日活跃用户数(DAU)/每月活跃用户数(MAU),反映的是网站或者APP的用户活跃程度,用户粘性。
6、次日留存/次月留存:次日留存、次月留存反映的是网站或者APP的留存率。
7、用户保有率:指在单位时间内符合有效用户条件的用户数在实际产生用户量的比率,也叫用户留存。
8、转化率/流失率:转化率一般用来统计两个流程之间的转化比例。其中流失率也是重要的数据指标。用户流失率=总流失用户数/总用户数。
9、跳出率:指用户到达网站上且仅浏览了一个页面就离开的访问次数(PV)与所有访问次数的百分比。跳出率越高说明越不受欢迎。
10、退出率:对某一个特定的页面而言,从这个页面离开网站的访问数(PV)占这个页面的访问数的百分比。跳出率适用于访问的着陆页(即用户访问的第一个页面),而退出率则适用于任何访问退出的页面。
11、使用时长:每天用户使用的时间。对于游戏或者是社交产品来说,使用时间越长,说明用户越喜欢。一般来说,使用时长越短说明产品粘性越差,用户越不喜欢。
12、ARPU:Average Revenue Per User,每用户平均收入在一定时间内,ARPU=总收入/用户数。
三、如何做用户行为分析――三大理念
1、要树立以数据为驱动的价值观
要树立以数据为驱动的价值观,充分认可数据的价值。工作定位:统计、助力、优化、创新。商业变现是最根本目标:用户使用产生数据商业变现
2、要有用户行为分析方法论
在用户行为分析中,越底层产生的价值越低,越顶层产生的价值越高。做用户行为分析应该把重心放在最有价值的分析和决策两个层面。将更多的时间放在分析以及应用上,而不是数据采集上。
AARRR模型,我们在做用户行为分析的时候,应该考虑用户正处在AARRR模型的哪个部分、关键数据指标是什么、对应的分析方法又是什么。
当我们对产品有一个idea的时候,采用MVP的方式将其构建,功能上线后,衡量用户和市场反应,从而不断学习优化
3、要用功能强大的用户行为分析工具
比如Google analysis、神策数据、Growing IO等等
四、如何做用户行为分析――八大方法
1、内外因素分析
该方法有助于快速定位问题。例如一款金融类产品UV下降,快速分析相关原因。内部可控因素:渠道变化、近期上线更新版本、内部不可控因素:公司战略变更、外部可控因素:淡旺季、外部不可控因素:监管。
2、事件分析
事件维度:用户在产品中的行为以及业务过程。指标:具体的数值,访客、地址、浏览量(PV、UV)、停留时长。趋势分析:分析各个事件的趋势
通过事件分析,比如分析用户的在线时长、点击事件、下载事件等等,然后分析用户的行为。并且通过各类图标来分析用户的行为趋势,从而对用户的行为有初步的了解。
3、试点分析
说白了就是,当发现一个问题之后,不要那么着急去解决,而是只想一个解决办法,然后灰度发布,如果灰度发布的人群数据比较好,那么就推往整个用户群。
这是一种从一个具体问题拆分到整体影响,从单一解决方案找到一个规模化解决方案的方式。
4、漏斗模型
漏斗模型是最常用的分析方法,可以广泛应用于流量监控、产品目标转化等日常数据运营工作中。要根据实际需要来确定是否有做漏斗分析的必要,比如用户注册过程、下单过程这些主要流程,就需要用漏斗模型来进行分析,尤其是需要分析用户在哪个环节流失最严重。
5、留存分析
通过留存分析,分析用户的次日留存、次周留存、次月留存等等,次日留存率能够说明用户对这款产品是否有持续使用的兴趣,对于社交、游戏类产品来说,次日留存率非常重要。
6、行为轨迹分析
只通过PV、UV 分析以及退出率分析是无法找到大部分用户是怎么去使用这款产品的。只有通过记录用户的行为轨迹,才能够关注用户真正如何去使用这款产品的。用户体验设计是对用户行为的设计,通过行为轨迹分析,能够帮助产品经理设计出来的产品直达用户内心。
例:通过用户行为轨迹分析发现,大部分用户支付转化率不高并不是退出了,而是返回了上一个页面,猜测:当前页面信息不足,用户在犹豫,想返回上一个页面再了解一下产品。
7、A/B test
A/B test是一种产品优化方法,AB测试本质上是个分离式组间实验,将A与B两个不同的版本同时发往两个几乎一致的用户群,来观测这两个用户群的数据反馈。
A/B test是一种“先验”的实验体系,属于预测型结论,与“后验”的归纳性结论差别巨大。A/B测试的目的在于通过科学的实验设计、采样样本代表性、流量分割与小流量测试等方式来获得具有代表性的实验结论,并确信该结论在推广到全部流量可信。
8、点击分析
通过点击分析,能够直观地看出来在这个页面中,用户的注意力都集中在哪些地方,用户最常用的功能是什么。方便产品经理对用户行为形成整体的了解,有助于产品经理引导用户往自己想要的方向去操作。
以上就是我个人总结的产品经理用户行为分析的方法,欢迎大家来补充、交流。
作者:秦时明月,互联网现金贷产品经理、互联网保险产品经理。
本文由@秦时明月原创发布于人人都是产品经理。未经许可,禁止转载。
题图来自 unsplash,基于 CC0协议
方差分析小结
二分类问题在机器学习中是一个很常见的问题,经常会用到。 ROC (Receiver Operating Characteristic) 曲线和 AUC (Area Under the Curve)(Area Under theCurve) 值常被用来评价一个二值分类器 ( binary classifier ) 的优劣。对于分类器,或者说分类算法,评价指标主要有precision,recall,F-score等,以及这里要讨论的ROC和AUC。
混淆矩阵是理解大多数评价指标的基础,毫无疑问也是理解AUC的基础。丰富的资料介绍着混淆矩阵的概念,这里用一个经典图来解释混淆矩阵是什么。
显然,混淆矩阵包含四部分的信息:
对照着混淆矩阵,很容易就能把关系、概念理清楚,但是久而久之,也很容易忘记概念。不妨我们按照位置前后分为两部分记忆,前面的部分是True/False表示真假,即代表着预测的正确性,后面的部分是positive/negative表示正负样本,即代表着预测的结果,所以,混淆矩阵即可表示为正确性-预测结果 的集合。现在我们再来看上述四个部分的概念(均代表样本数,下述省略):
几乎我所知道的所有评价指标,都是建立在混淆矩阵基础上的,包括准确率、精准率、召回率、F1-score,当然也包括AUC。
事实上,要一下子弄清楚什么是AUC并不是那么容易,首先我们要从ROC曲线说起。对于某个二分类分类器 来说,输出结果标签(0还是1)往往取决于输出的概率以及预定的概率阈值,比如常见的阈值就是0.5,大于0.5的认为是正样本,小于0.5的认为是负样本。如果增大这个阈值,预测错误(针对正样本而言,即指预测是正样本但是预测错误,下同)的概率就会降低但是随之而来的就是预测正确的概率也降低;如果减小这个阈值,那么预测正确的概率会升高但是同时预测错误的概率也会升高。实际上,这种阈值的选取也一定程度上反映了分类器的分类能力 。我们当然希望无论选取多大的阈值,分类都能尽可能地正确,也就是希望该分类器的分类能力越强越好,一定程度上可以理解成一种鲁棒能力吧。
为了形象地衡量这种分类能力,ROC曲线横空出世!如下图所示,即为一条ROC曲线(该曲线的原始数据第三部分会介绍)。现在关心的是:
- 横轴:False Positive Rate(假阳率,FPR)
- 纵轴:True Positive Rate(真阳率,TPR)
假阳率,简单通俗来理解就是预测为正样本但是预测错了的可能性,显然,我们不希望该指标太高。
真阳率,则是代表预测为正样本但是预测对了的可能性,当然,我们希望真阳率越高越好。
显然,ROC曲线的横纵坐标都在[0,1]之间 ,自然ROC曲线的面积不大于1。现在我们来分析几个特殊情况,从而更好地掌握ROC曲线的性质 :
于是,我们可以得到基本的结论:ROC曲线在斜对角线以下,则表示该分类器效果差于随机分类器,反之,效果好于随机分类器,当然,我们希望ROC曲线尽量除于斜对角线以上,也就是向左上角(0,1)凸 。
ROC曲线一定程度上可以反映分类器的分类效果,但是不够直观,我们希望有这么一个指标,如果这个指标越大越好,越小越差,于是,就有了AUC。AUC实际上就是ROC曲线下的面积。AUC直观地反映了ROC曲线表达的分类能力 。
AUC最大的应用应该就是点击率预估(CTR) 的离线评估。CTR的离线评估在公司的技术流程中占有很重要的地位,一般来说,ABTest和转全观察的资源成本比较大,所以,一个合适的离线评价可以节省很多时间、人力、资源成本。那么,为什么AUC可以用来评价CTR呢? 我们首先要清楚两个事情:
1. CTR是把分类器输出的概率当做是点击率的预估值,如业界常用的LR模型,利用sigmoid函数将特征输入与概率输出联系起来,这个输出的概率就是点击率的预估值。内容的召回往往是根据CTR的排序而决定的。
2. AUC量化了ROC曲线表达的分类能力。这种分类能力是与概率、阈值紧密相关的,分类能力越好(AUC越大),那么输出概率越合理,排序的结果越合理。
我们不仅希望分类器给出是否点击的分类信息,更需要分类器给出准确的概率值,作为排序的依据。所以,这里的AUC就直观地反映了CTR的准确性 (也就是CTR的排序能力)
[1]From 机器学习和统计里面的auc怎么理解?
[2]From 精确率、召回率、F1 值、ROC、AUC 各自的优缺点是什么?
[3]From 机器学习之分类性能度量指标 : ROC曲线、AUC值、正确率、召回率
[4]From ROC曲线、AUC值
人白细胞抗原系统简介
两个总体间的差异如何比较?研究样本,通过研究样本来分析总体。实际上,所研究的总体往往是无限总体,总体的参数是无法用观察或计算得到的。同理,总体平均数常常无法计算,因而往往用样本平均数作为总体平均数的估计值,因为样本平均数的数学期望等于总体的平均数。
词义解析
离均差 是每个观察值的偏离平均数的度量指标。
样本均方 是总体方差的无偏估计值。
标准差 为方差的正平均根值,用以表示资料的变异度。
抽样分布的标准差 又称为标准误,它可以度量抽样分布的变异。
变异系数
标准差和观察值的单位相同,表示一个样本的变异度,若比较两个样本的变异度,则因单位不同或均数不同,不能用标准差进行直接比较。这时可以计算样本的标准差对均数的百分数,称为变异系数。
由于变异系数是由标准差和平均数构成的比数,即受标准差的影响,又受平均数的影响,因此,在使用变异系数表示样本变异程度时,应同时列举平均数和标准差,否则可能引起误解。
正态分布
标准化的正态分布方程就是在正态分布的基础上令 ,u为正态分布的平均数,s为正态分布的方差。
由于不同的总体的平均数和方差不同,所以将其转换为标准正态分布方程,这样凡要计算一个正态分布的概率只需将y转换为U值,然后查表就可以得出y落入某区间的概率。
假设测验
可从假设的总体里推论其随机抽样平均数的分布,从而可以算出某一样本平均数指定值出现的概率,这样就可以研究样本和总体的关系,从而进行假设测验,这就是假设测验的基本原理。
T检验
F检验又叫方差齐性检验。在两样本t检验中要用到F检验。在进行t测验时,需要考虑方差是否相等,可以用F检验进行分析。
U测验和t测验
u测验 :利用u分布进行的假设测验,总体方差已知或者方差未知但大样本;
t测验 :利用t分布进行的测验,总体方差未知,是小样本。
u测验就是根据标准化正态分布的原理进行计算的,u测验是在总体方差为已知,或方差未知单样本容量相当大,可以用样本方差直接作为总体方差进行应用。
同样,t测验也是根据这个原理进行分析的,只不过因为t测验的样本比较小(通常小于30,当样本大于30时接近正态分布)而总体方差又未知,所以就用样本的方差先估算出总体的方差,然后进行分析计算概率的。
成对数据,由于同一配对内两个供试单位的试验条件很是相近,而不同配对间的条件差异又可通过同一配对的差数给予消除,因为可以控制实验误差,具有较高的精确度。
方差分析
对一组处理的重复试验数据经对总平方和与总自由度的分解估计出处理间均方和处理内均方(误差均方),并通过F测验处理间所表示出的差异是否真实(比误差大)
方差分析是建立在一定的线性可加模型基础上的,所谓线性可加模型就是指总体每一变量可以按其变异的原因分解成若干个线性组成部分,它是方差分析的理论基础。
方差分析的基本假定
F测验
在一个平均数为u、方差为S的正态总体中,随机抽取两个独立样本,分别求得其均方为s1和s2,将s1和s2的比值定义为F,F值具有s1的自由度和s2的自由度。
在方差分析的体系中,F测验可用于检测某项变异因素的相应或方差是否真实存在,所以在计算F值时,总是将要测验的那一项变异因素的均方作分子,而另一项变异(例如实验误差项)的均方为分母。也就是说如果检测的变异因素存在,那么他的均方就根据自由度的关系而大于限定内的均方。
多重比较
最小显著差数法(实质上就是t测验)、q法、新复极差法LSD
多重比较结果的表示方法
划线法、标记字母法 先将平均数从大到小排列起来,再将不显著的划分为同一组
参数估计法
矩法、最小二乘法、极大似然法
联合方差分析
对用于多年多点实验的分析
相关系数和决定系数
对于坐标点呈直线趋势的两个变数,如果并不需要由X来估计Y,而仅需了解X和Y是否确有相关以及相关的性质(正相关或负相关),则首先应算出表示X和Y相关密切程度及其性质的统计数————相关系数(以r表示相关系数)。决定系数定义为由x不同而引起的y的平方和占y总平方和的比率(用R表述决定系数)
回归系数就是x对y的效应。
偏回归系数
偏回归系数是在其他自变数保持一定时,某一变数对因变数的效应。
偏相关系数就是其他变量保持一定是,某一变量和因变量的关系。
协变量
通俗的讲,就是在试验过程中对因变量的影响除了自变量外的变量,一些不可控但是能进行测量的变量。在实验设计中,协变量是独立变量,实验者不能操纵,但仍影响实验结果
协方差是在方差分析的基础上,综合回归分析的方法,研究如何调节协变量对因变量的影响效应,从而更加有效地分析实验处理效应的一种统计技术。简单来讲就是对协变量的分析。
回归分析中如果想求得置信区间,可以在进行回归分析时:分析——回归——线性回归——统计——回归系数——误差条形图的表征
协方差分析
直线回归和相关的应用要点(很重要)
偏度
度量数据偏离正态分布的程度,它刻划分布函数对称性,当偏度为正值时,分布向大于平均数方向偏斜,偏度为负值时则向小于平均数方向偏斜;当偏度的绝对值大于2时,分布的偏斜程度严重。
峰度
度量数据服从正态分布时峰的高度,它刻划不同类型的分布的集中和分散程度,当峰度大于3时,分布比较陡峭,峰态明显,即总体变数的分布比较集中。
偏度和峰度是判断正态分布的重要指标
完全随机试验就是简单的单因素方差分析
但是在随机区组试验中,可以用双因素无重复方差分析,因为区组作为局部控制的一项手段,对于减小误差是相当有效的(一般区组间的F测验可以不必进行,因为试验目的不是研究区组效应的)。
条区实验
在多因素实验中由于实施试验的需要,每一因素的各水平都有较大的面积,因而在裂区设计的基础上将同一副处理也连成一片。这样A,B两个因素就互为主副处理,两者的交叉处理为各该水平的处理组合。这就是条区设计。
裂区实验
裂区就是实验因素有主副之分,因此裂区实验的变异的误差项有两个,而一般的随机区组实验误差项只有一个
/s/blog_ab3eddb50102vz3i.html 使用单因素的定制,然后自己设计模型:区组 主效 区组(主效) 副效 主效*副效. 在文件——新建——语法 中进行修改
条区实验
在spss中使用单因素的全因子分析
组内观察值数目相等的单项分组资料的方差分析(spss):简单的单因素分析
组内观察值数目不相等的单项分组资料的方差分析(spss):单因素,类型1
组内又分亚组的单项分组资料的方差分析(spss):单因素,然后将模型修改为 {因素 分组(因素) 亚组(因素*分组).}
多因素方差分析中的处理组合间的差异不必管它,
SPSS
许多现实的问题中,仅仅依靠统计描述和简单的统计推断方法是不够的,现实世界中变量间的联系错综复杂,往往要同时考虑多个因素的作用,并为之建立多变量模型。
常用术语
1、因素(Factor)与水平(Level)
因素也被称为因子,就是指可能对因变量有影响的分类变量,而分类变量的不同取值等级(类别)就被称为水平。
2、单元(Cell)
单元也被称为水平组合,或者单元格,是各因素各个水平的组合。
3、元素(Element)
元素指用于测量因变量值的最小单位。根据具体的试验设计,一个单元格内可以有多个元素,也可以只有一个,甚至没有元素。
4、均衡(Balance)
如果在一个试验设计中任意因素个水平在所在单元格中出现的次数相同,且每个单元格内的元素数均相同,则该试验时均衡的;否则,就被称为不均衡。不均衡的试验设计在分析时较为复杂,需要对方差分析模型做特别设置才能得到正确的分析结果。
两个处理的样本量不等,是不平衡试验,不平衡试验用异方差和等方差计算出的t统计量数值是不相同的,而平衡试验用异方差和等方差计算出的t统计量数值是相同的,只是自由度不同,这时两种方法的结果就比较接近,因此实验设计中通常要求做平衡试验。
两个或多个处理下方差相等的情况称为方差齐性,从严格的意义上说,任何两个处理的方差都不会完全相同,我们说方差齐性也只是认为两个处理的方差相差不大,其方差的变异程度不足以影响统计分析结果的正确性,这时采用平衡试验还能够进一步降低方差的差异对统计分析结果的影响。在方差齐性的前提下,平衡试验的统计效率是最高的。如果实验前能够确定方差是非齐性的,则应该对方差大的处理分配较大的样本量。
实际应用中的多数情况方差是齐性的,在实验的处理数目多于两个时,要使用方差分析比较多个处理间平均水平的差异,而方差分析的前提条件是方差齐性,所以等方差的的假设是普遍的。
5、协变量(Covariates)
协变量指对因变量可能影响,需要在分析时对其作用加以控制的连续性变量。实际上,可以简单地把因素和协变量分别理解为分类自变量和连续性自变量。
6、交互作用(Interaction)
如果一个因素的效用大小在另一个因素不同水平下明显不同,则称为两因素间存在交互作用。
7、固定因素(Fixed Factor)与随机因素(Random Factor)
固定因素是指该因素在样本中所有可能的水平都出现了。
随机因素指的是,该因素所有可能的取值在样本中没有都出现,或者不可能都出现。
方差分析模型的适用条件
1、理论上的适用条件
* 各样本的独立性:由于各样本相互独立,来自真正的随机抽样,才能保证变异能够按照模型表达式那样具有可加性(可分解性);
* 正态性:由于各组的随机误差项被设定为服从正态分布,因此模型要求各单元格的残差必须服从正态分布。
* 方差齐:同样是因为随机误差项,由于在模型中无论何种组合,随机误差项被假定服从相同的正态分布,因此模型要求各单元格都满足方差齐(变异程度相同)的要求。
2、实际操作中对适用条件的把握
(1)单因素方差分析
因模型只有一个因素,设计较为简单,样本有充足的信息量对正态性和方差齐性进行考察,这已经成为标准分析步骤
但是许多人误将正态性理解为因变量应当正态分布,显然这种想法和实际的要求不是一回事。不过由于模型有一定稳健性,只有因变量分布不是明显偏态,分析结果一般都是较稳定的。
至于方差齐性,需要特别指出的是:根据Box的研究结果,在单因素方差分析中,如果各组的例数相同(即均衡),或总体呈正态分布,则方差分析模型对方差略微不齐有一定的耐受性,只要最大与最小方差之比小于3,分析结果是稳定的。
(2)单元格内重复数据的方差分析
以配伍设计方差分析最为典型,此时不需要考虑正态性和方差齐性问题,原因在于正态性和方差齐性的考虑是以单元格为基础单位的,此时每个格子中只有一个元素,当时没法分析了。除配伍设计的方差分析外,交叉设计、正态设计等可以出现无重复数据的情况。但必须指出,这里只有因条件不足,无法考虑适用条件,而不是说可以完全忽视这两个问题,如果根据专业知识认为可能在不同单元格内正态性,方差齐性有问题,则应当避免使用这种无重复数据的设计方案。
当然,从模型的角度讲,实际操作对数据正态性的考虑还有一个办法,就是拟合完毕后作出残差分析图,如果残差呈随机分布,则可知(单元格内)原始数据满足正态条件。
(3)有重复数据的多因素方差分析
由于正态性、方差齐性的考察是以单元格的基本单位,此时单元格数目往往很多,平均每个单元格内的样本粒数实际上比较少。
另一方面,也可能因为只有极个别单元格方差不齐而导致检验不能通过。根据实际经验,实际上在多因素方差分析中,极端值的影响大于方差齐性等问题的影响,因此实际分析中可以直接考察因变量的分布情况,如果数据分布不是明显偏态,不存在极端值,而一般而言方差齐性和正态齐性不会有太大问题,而且也可以基本保证单元格内无极端值。因此在多因素方差分析中,方差齐性往往只限于理论探讨。但对于较重要的研究,则建模后的残差分析时非常重要的。
LSD法:实际上要求将各组均和一个参照水平加以比较。
S-N-K法:两两比较结果则要清楚的多。
1. 首先,它会把各组在表格的纵向上按照均值的大小排序;
2. 其次,在表格的横向各水平被分为了若干个亚组(Subset),不同亚组间的P值小于0.05,而同一亚组各组均数则两两无差异,比较的P值均大于0.05.
当自变量与其他自变量或者协变量相关时,没有明确的方法可以评价自变量对因变量的贡献。例如,含因子A、B和因变量y的双因素不平衡因子设计,有三种效应:A和B的主效应,A和B的交互效应。假设你正使用如下表达式对数据进行建模:
Y ~ A + B + A:B
有三种类型的方法可以分解等式右边各效应对y所解释的方差。
类型Ⅰ(序贯型)
效应根据表达式中先出现的效应做调整。A不做调整,B根据A调整,A:B交互项根据A和B调整。
类型Ⅱ(分层型)
效应根据同水平或低水平的效应做调整。A根据B调整,B依据A调整,A:B交互项同时根据A和B调整。
类型Ⅲ(边界型)
每个效应根据模型其他各效应做相应调整。A根据B和A:B做调整,A:B交互项根据A和B调整。
对平衡实验,那种模型都可以,但是对于非均衡实验,使用类型Ⅰ
R默认调用类型I方法,其他软件(比如SAS和SPSS)默认调用类型Ⅲ方法。
一般来说,越基础性的效应越需要放在表达式前面。具体来讲,首先是协变量,然后是主效应,接着是双因素的交互项,再接着是三因素的交互项,以此类推。对于主效应,越基础性的变量越应放在表达式前面,因此性别要放在处理方式之前。
方差分析泛应用于商业、经济、医学、农业等诸多领域的数量分析研究中。例如商业广告宣传方面,广告效果可能会受广告式、地区规模、播放时段、播放频率等多个因素的影响,通过方差分析研究众多因素中,哪些是主要的以及如何产生影响等。而在经济管理中,方差分析常用于分析变量之间的关系,如人民币汇率对股票收益率的影响、存贷款利率对债券市场的影响,等等。
协方差是在方差分析的基础上,综合回归分析的方法,研究如何调节协变量对因变量的影响效应,从而更加有效地分析实验处理效应的一种统计技术。
8.1单因素方差分析及R实现
(1)正态性检验
对数据的正态性,利用Shapiro-Wilk正态检验方法(W检验),它通常用于样本容量n≤50时,检验样本是否符合正态分布。
R中,函数shapiro.test()提供了W统计量和相应P值,所以可以直接使用P值作为判断标准,其调用格式为shapiro.test(x),参数x即所要检验的数据集,它是长度在35000之间的向量。
例:
某银行规定VIP客户的月均账户余额要达到100万元,并以此作为比较各分行业绩的一项指标。这里分行即因子,账户余额是所要检验的指标,先从三个分行中,分别随机抽取7个VIP客户的账户。为了用单因素方差分析判断三个分行此项业绩指标是否相同,首先对二个分行的账户余额分别进行正态检验。
P值均大于显著性水平a=0.05,因此不能拒绝原假设,说明数据在因子A的三个水平下都
是来自正态分布的。
QQPlot图是用于直观验证一组数据是否来自某个分布,或者验证某两组数据是否来自同一(族)分布。在教学和软件中常用的是检验数据是否来自于正态分布
qq图是正态分位数图,纵坐标是变量的取值,关键是横坐标,参考了以为博友的博客。自己用R写了一个程序验证了一下。基本没问题。
qqplot全名应该是正态分位数图,横坐标的做法:
首先把变量按从小到大的顺序排列,计算变量的长度,即总共有多少个取值,再按顺序计算变量的所有取值的累积百分比,所谓的累积百分比,也就是可以看成是累积概率,比如有10个值,按照从小到大的顺序,第一个值的排序是1, 那么他的所占的百分比就是10%, 紧接着后一个值所占的百分比也会是10%,但是累积概率值为20%, 依次往后计算,因为最后一个值的累积百分比是100%,即等于1,这个值如果计算它的正态分布概率的分位数的话,是无限大的,因此需要对这个值进行修正一下,就是因为这一个值无限大,所以对全体计算出来的累积百分比减去一个适当小的数,修正后的累积百分比与原百分比相差不多,但是回避了最后一个值是1而无法计算的问题。
有了累积百分比之后,相对应的就是累积的概率值。将累积概率值修正后,即得到累积概率,比如以10个值为例,第一个值的累积概率为0.05,查正态分布表,0.05的累积概率,对应的正态分布的Z值为-1.64,这样一次计算,所得的Z值,就是qqplot的横坐标数据。下面以10个数据和30个数据为例说明。
(2)方差齐性检验
方差分析的另一个假设:方差齐性,需要检验不同水平卜的数据方差是否相等。R中最常用的Bartlett检验,bartlett.test()调用格式为
bartlett.test(x,g…)
其中,参数X是数据向量或列表(list) ; g是因子向量,如果X是列表则忽略g.当使用数据集时,也通过formula调用函数:
bartlett.test(formala, data, subset,na.action…)
formula是形如lhs一rhs的方差分析公式;data指明数据集:subset是可选项,可以用来指定观测值的一个子集用于分析:na.action表示遇到缺失值时应当采取的行为。
续上例:
由于P值远远大于显著性水平a=0.05,因此不能拒绝原假设,我们认为不同水平下的数据是等方差的。
8.1.2单因素方差分析
R中的函数aov()用于方差分析的计算,其调用格式为:
aov(formula, data = NULL, projections =FALSE, qr = TRUE,contrasts = NULL, ...)
其中的参数formula表示方差分析的公式,在单因素方差分析中即为x~A ; data表示做方差分析的数据框:projections为逻辑值,表示是否返回预测结果:qr同样是逻辑值,表示是否返回QR分解结果,默认为TRUE; contrasts是公式中的一些因子的对比列表。通过函数summary()可列出方差分析表的详细结果。
上面的例子已经对数据的正态性和方差齐性做了检验,接F来就可以进行方差分析:
Levene检验
Levene检验,它既可以用于正态分布的数据,也可用于非正态分布的数据或分布不明的数据,具有比较稳健的特点,检验效果也比较理想。
R的程序包car中提供了Levene检验的函数levene.test()
由于p值大于a=0.05,不能拒绝原假设,我们认为不同水平下的数据是等方差的。
8.1.3多重t检验
单因素方差分析是从总体的角度上说明各效应的均值之间存在显著差异,但具体哪些水平下的均值存在较人差异无从得知,所以我们要对每一对样本均值进行一一比较,即要进行均值的多重比较。
经过修正后的p值比原来会增大很多,这在一定程度上克服了多重t检验增加犯第一类错误的
概率的缺点。从检验结果来看,样本两两之问t检验的p值都很小,说明几个样本之间差异明显。
8.1.4Kruskal-Wallis秩和检验
R内置函数kruskal.test()可以完成Kruskal-Wallis秩和检验,使用如下:
kruskal.test(x, ...)
kruskal.test(x, g, ...)
kruskal.test(formula, data, subset,na.action, ...)
例:
某制造商雇用了来自三所本地大学的雇员作为管理人员。最近,公司的人事部门已经收集信息并考核了年度工作成绩。从三所大学来的雇员中随机地抽取了三个独立样本,样本量分别为7、6, 7,数据如表所示。制造商想知道来自这三所不同的大学的雇员在管理岗位上的表现是否有所不同,我们通过Kruskal-Wallis秩和检验来得到结论。
检验的结果为P=0.0112<0.05,因此拒绝原假设,说明来自这三个不同的大学的雇员在管理岗位上的表现有比较显著的差异。
8.2双因素方差分析及R实现
8.2.1无交互作用的分析
例:
某商品在不同地区、不同包装的销售数据
首先为了建立数据集,引入生成因子水平的函数g1(),其调用格式为:
gl(n, k, length=n k,labels=1:n,ordered=FALSE)
n是因子的水平个数;k表示每一水平上的重复次数;length=n k表示总观测数;可通过参数labels对因子的不同水平添加标签;ordered为逻辑值,指示是否排序。
分析前先对因素A和B作方差齐性检验,使用函数bartlett.test()
因素A和B的P值都远大于0.05的显著性水平,不能拒绝原假设,说明因素A, B的各水平是满足方差齐性的。这时再进行双因素方差分析,输入指令
检验的结论:因素B的P值=0.0219<0.05,拒绝原假设,说明销售地区对饮料的销售量有显著影响;而因素A的P值=0.1032>0.05,不能拒绝原假设,因此没有充分的理由可以说明包装方式对销售有明显影响。
8.2.2有交互作用的分析
R仍然用函数aov()作双因素方差分析,只需将formula改为x A+B+A:B或x A*B的形式即可。
例:
不同路段和不同时段的行车时间数据
首先构造数据集,对因素A和B作方差齐性检验,利用函数bartlett.test()
检验结果的P值均远大于显著性水平0.05,说明两个因素下的各水平都满足方差齐性的要求,可以进一步做方差分析。画图来观察一下数据的特点,首先是箱线图。
从图形上单独观察时段和路段对行车时间的影响,可以发现因素的不同水平还是有明显差别的。为了考察因素间的交互作用是否存在,利用函数interaction.plot()绘制交互效应图:
interaction.plot(x.factor, trace.factor,response, fun = mean,type = c("l","p", "b", "o", "c"), legend = TRUE,trace.label =deparse(substitute(trace.factor)),fixed = FALSE,xlab =deparse(substitute(x.factor)),ylab = ylabel,ylim = range(cells, na.rm =TRUE),lty = nc:1, col = 1, pch =c(1:9, 0, letters),xpd = NULL, leg.bg =par("bg"), leg.bty = "n",
xtick = FALSE, xaxt = par("xaxt"),axes = TRUE,...)
x.factor表示横轴的因子
trace.factor表示分类绘图的因子
response是数值向量,要输入响应变量
fun表示汇总数据的方式,默认为计算每个因子水平下的均值
type指定图形类型
legend是逻辑值,指示是否生成图例
trace.label给出图例中的标签。
曲线均没有相交,所以可以初步判断两个因素之间应该没有交互作用。用方差分析进行确认:
根据检验结果的P值作判断:引素A时段和B路段对行车时间有显著影响;而交互作用A:B的P值=0.42>0.05 ,因此不能拒绝原假设H0,说明两个因素间没有明显的交互效应。
8.3协方差分析及R实现
为了提高试验的精确性和准确性,我们对除研究因素以外的一切条件都需要采取有效措施严加控制,使它们在因素的不同水平间尽量保持一致,这叫做试验控制。但当我们进行试验设计时,即使做出很大努力控制,也经常会碰到试验个体的初始条件不同的情况,如果不考虑这些因素有可能导致结果失真。如果考虑这些不可控的因素,这种方差分析就叫做协方差分析,其是将回归分析和方差分析结合在一起的方法。它的基本原理如下:将一些对响应变量Y有影响的变量X(未知或难以控制的因素)看作协变量,建立响应变量Y随X变化的线性回归分析,从Y的总的平方和中扣除X对Y的回归平方和,对残差平方和作进一步分解后再进行方差分析。
例:
施用3种肥料的苹果产量
协方差分析的P值非常小,说明结果非常显著,应该拒绝原假设,认为各因素在不同水平下的试验结果有显著差别,即三种肥料对苹果产量有很大的影响。
如何对百度网页搜索的检索满意度指标进行评估?
目录 1 拼音 2 英文参考 3 人类HLA基因复合体 3.1 HLA复合体定位及结构 3.2 HLA等位基因及编码产物的命名 3.3 HLA复合机遗传特征 4 HLA抗原的分子结构 5 HLA抗原的组织分布 6 HLA抗原表达的调控 7 HLA与疾病相关性 8 HLA表达异常与疾病的关系 8.1 HLAⅠ类抗原表达异常 8.2 HLAⅡ类抗原表达异常 9 HLA与排斥反应 10 HLA与法医 11 HLA分型技术 11.1 血清学分型技术 11.1.1 HLAⅠ类抗原的检测 11.1.2 HLADR、DQ抗原检测 11.2 细胞学分型技术 11.3 HLA的DNA分型技术 11.3.1 限制性片段长度多态性检测技术 11.3.2 PCR/SSO技术 11.3.3 PCR/SSP技术 1 拼音
rén bái xì bāo kàng yuán xì tǒng
2 英文参考human leucocyte antigen,HLA
排斥反应本质上是一种免疫反应,它是由组织表面的同种异型抗原诱导的。这种代表个体特异性的同种抗原称为组织兼容性抗原(histopatibility antigen)或移植抗原(transplantation antigen)。机体内与排斥反应有关的抗原系统多达20种以上,其中能引起强而迅速排斥反应者称为主要组织兼容性抗原,其编码基因是一组紧密连锁的基因群,称为主要组织兼容性复合体(major histopatibilityplex,MHC)。控制机体免疫应答能力与调节功能的基因(immune uesponse gene,Ir gene )也存在于MHC内。因此,MHC不仅与移植排斥反应有关,也广泛参与免疫应答的诱导与调节。人类的MHC称为人白细胞抗原系统(human leucocyte antigen,HLA)。
3 人类HLA基因复合体对人主要组织兼容性抗原系统及其基因复合体的认识比小鼠约晚10年,法国学者Dausset在1958年首先发现,肾移植后出现排斥反应的患者以及多次输血的患者血清中含有能与供者白细胞发生反应的抗体。后者所针对的抗原即人类主要组织相溶性抗原。由于该抗原首先在白细胞表面被发现且含量最高,而且白细胞抗原(human leucocyte antigen,HAL);人类MHC,即编码HLA的基因群自然数为HAL复合体。
3.1 HLA复合体定位及结构HLA复合 *** 于人第6号染色体的短臂上。该区DNA片段长度约3.5~4.0×千个堿基对,占人体整个基因组的1/3000。图52显示HLA复合体结构。HLA复合体共有数十个座,传统上按其产物的结构、表达方式、组织分布与功能可将这些基因座分为三类。
图52 人类HLA复合体结构示意图
1.HLAⅠ类基因在Ⅰ基因区内存在多达31个有关的Ⅰ类基因座,其中HLAA、HLAB和HLAC为经典的HLAⅠ类基因,其它基因的产物分布有限,且其功能不明,另外还有许多伪基因.
2.HLAⅡ类基因 HLAⅡ类基因区包括近30个基因座,其中经典的Ⅱ类基因一般指DR、DP和DQ,它们编码的产物均为双肽链(α、β)分子。近年来,陆续发现了一些位于Ⅱ类基因区的新基因座,其中某些基因的产物与内源性抗原的处理与呈递有关。
3.HLAⅢ类基因 HLAⅢ类基因区域至少已发现36个基因座,其中C2、C4、Bf座编码相应的补体成分,另外还有21羧化酶基因(CYP21A、B)肿瘤坏死因子基因(TNFA、B)以及热休克蛋白70(heat shock protein70,HSP70)基因。补体C4由二个不同的基因(C4A与C4B)编码。HLAⅢ类基因区结构见图53。
图53 HLAⅢ基因区结构示意图
3.2 HLA等位基因及编码产物的命名按WHOHLA命名委员会发布的资料,仅经典的HLAⅠ、Ⅱ类座(A、B、C、DR、DQ、DP)等位基因即达279个。表51列出了至1991年11月已识别的HLA特异性。根据该委员会制定的命名原则,凡确定新的HLA抗原特异性都要明确其DNA序列。此外,下列几种情况在HLA特异性编号后加W(work shop)标记。
表51 已识别的HLA特异性(1991)
A B C D DR DQ DF A1 B5?B51(5) Cw1 Dw1 DR1 DQ1 DPw1 A2 B7?B5102 Cw2 Dw2 DR103 DQ2 DPw2 A210(2) B703 B5103(7) Cw3 Dw3 DR2 DQ3 DPw3 A3 B8 B52(5) Cw4 Dw4 DR3 DQ4 DPw4 A9 B12?B53 Cw5 Dw5 DR4 DQ5(1) DPw6 A10 B13?B54(22) Cw6 Dw6 DR5 DQ6(1) A11 B14?B55(22) Cw7 Dw7 DR6 DQ7 A19 B15?B54(22) Cw8 Dw8 DR7 DQ18(3) A23(9) B16?B57(17) Cw9(w3) Dw10 DR8 DQ19(3) A24(9) B17?B54(17) Cw1(w3) Dw11(w7) DR9 A2403(9) B18?B59 Dw12 DR10 A25(10) B21?B60(40) Dw13 DR11(5) A26(10) B22?B61(40) Dw14 DR12(5) A28 B27?B62(15) Dw15 DR13(5) A29(19) B35?B63(15) Dw16 DR13(6) A30(19) B37B64k(14) Dw17(w7) DR14(6) A31(19) B38(16 B65(14) Dw18(w6) DR1403 A32(19) B39(16) B67 Dw19(w6) DR1404 A33(19) B40 B70 Dw20 DR15(2) A34(10) B4005(21) B71(70) Dw21 DR16(2) A36 B41 B72(70) Dw22 DR17(3) A43 B42 B73 Dw23 DR18(3) A66(10) B44(12) B75(15) DR51 A68(28) B45(12) B76(15) Dw24 A69(28) B46 B77(15) Dw25 DR52 A74(19) B47 B7801 B26 DR53 B48 B49(21)?Bw4 B50(21) Bw6①Bw4和Bw6作为表位以其它B座等位基因个区别;②C座的特异性加w,以与补体相区分;③由经典细胞学分型方法鉴定D和DP特异性加W。
3.3 HLA复合机遗传特征HLA复合体具备某些有别于其它真核基因系统的特征。
1.单体型遗传方式 HLA复合体是一组紧密连锁的基因群。这些连锁在一条染色体上的等位基因很少发生同源染色体间的交换,构成一个单体型(haplo)。在遗传过程中,HLA单体型作为一个完整的遗传单位由亲代传给子代。有必要区分HLA表型、基因型与单体型这三个概念。某一个体HLA抗原特异性型别称为表型(pheno);HLA基因在体细胞两条染色体上的组合称为基因型(geno);HLA基因在同一条染色体上的组合称为单体型(haplo)(表52)。
受检者 甲A1 A2
B8 B12 乙
A1 A1
B8 B12 丙
A1 A1
B8 B8 表型 HLAA1、2:B8、12 HLAA1:B8、12 HLAA1、B8 基因型 HLAA1、A2
HLAB8、B12 HLAA1、A1
HLAB8、B12 HLAA1、A1
HLAB8、B8 单体型 HLAA1、B8/A2、B12 HLAA1、B8/A1、B12 HLAA1、B8/A1、B8
二倍体(diploid)生物的每一细胞均有两个同源染色体组,分别来自父母双方。故子女的HLA单体型也是一个来自父方,一个来自母方。在同胞之间比较HLA单体型型别只会出现下列三种可能性:二个单体型完全相同或完全不同的机率各占25%;有一个单体型相同的机率占50%。至于亲代与子代之间则必然有一个单体型相同,也只能有一个单体型相同(图540。这一遗传特点在器官移植供者的选择以及法医的亲子鉴定中得到了应用。
图5-4 HLA 单体型遗传示意图
注:a、b、c、d代表单体型
A1、B8、A2、B35等代表HLA基因座等位基因
2.多态性现象 多态性(polymorphi *** )是指在一随机婚配的群体中,染色体同一基因座有两种以上基因型,即可能编码二种以上的产物。HLA复合体是迄今已知人体最复杂的基因复合体,有高度的多态性。HLA的多态性现象乃由于下列原因所致:①复等位基因(multiple alleles):位于一对同源染色体上对应位置的一对基因称为等位基因(allele);由于群体中的突变,同一座的基因系列称为复等位基因。前已述及,HLA复合体的每一座均存在为数众多的复等位基因,这是HLA高度多态性的最主要原因。由于各个座位基因是随机组合的,故人群中的基因型可达108之多。②共显性(codominance);一对等位基因同为显性称为共显性。HLA复合体中每一个等位基因均为共显性,从而大大增加了人群中HLA表型的多样性,达到107数量级。因此,除了同卵双生外,无关个体间HLA型别全相同的可能性极小。
HLA的高度多态性显示了遗传背景的多样性,这可能是高等动物抵御不利环境因素的一种适应性表现,从而维持种属的生存与延续具有重要的生物意义,但也对组织移植过程中寻找配型合的供体带来很大的困难。
3.连锁不平衡 HLA复合体各等位基因均有其各自的基因频率。基因频率是指某一特定等位基因与该基因座中全部等位基因总和的比例。随机婚配的群体中,在无新的突变和自然选择的情况下,基因频率可以代代维持不变,由于HLA复合体和各基因座是紧密连锁的,若各座的等位基因随机组合构成单体型,则某一单体型型别的出现频率应等于该单体型各基因比其它基因能更多或更少地连锁在起,从而出现连锁不平衡(linkage disepuilibrium)。例如,在北欧白人中HLAA1和HLAB8频率分别为0.17和0.11。若随机组合,则单体型A1B8的预期频率为0.17×0.110.019。但实际所测行的A1B8单体型频率是0.088故A1B8处于连锁不平衡,实测频率与预期频率间的差值(△0.0880.190.069)为连锁不平衡参数。在HLA复合体中已发现有50对以上等位基因显示连锁不平衡。产生连锁不平衡的机制尚不清楚。
4 HLA抗原的分子结构1987年Bjorkman等首先借助X线晶体衍射技术弄清了HLAA2分子的立体结构。其后,其它HLAⅠ、Ⅱ类分子结构的研究也取得了进展,从而对这些分子的生物学功能提供了较确切的解释。
(一)HLAⅠ类分子
所有的HLAⅠ类分子均含有二条分离的多肽链,一条是由MHC基因编码的α链或称重链(44kD)。根据对HLAA2和Aw68分子的晶体结构分析,Ⅰ类分子可分为四个区:(图55):①氨基端胞外多肽结合区:该区由二个相似的各包括90个氨基酸残基的片段组成,分别称为α1和α2。该功能区含有与抗原结合的部位。后者呈深槽状,其大小与形状适合于已处理的抗原片段,约容纳8~10个氨基酸残基。Ⅰ类分子的多态性残基也位于该区域。②胞外lg样区:该区又称为重链的α3片段,包括90个氨基酸残基,与免疫球蛋白的恒定区具有同源性。Ⅰ类分子与TC细胞表面CD8分子的结合部位即在α3片段。Ⅰ类分子的β链又称β2微球蛋白,也结合于该区。β链由第15号染色体的基因编码,它不插入细胞膜而游离于细胞外。β2微球蛋白与α1、α2、α3片段的相互作用对维持Ⅰ类分子于然构型的稳定性及其分子表达有重要意义。③跨膜区:该区氨基酸残基形成螺旋状穿过浆膜的脂质双层,将类分子锚定在膜上。④胞浆区:该区位于胞浆中,可能与细胞内外信息传递有关。
图55 HLAⅠ类分子结构示意图
(二)HLAⅡ类分子
所有的Ⅱ类分子均由二条以非共价键连接的多肽链(α、β)组成。二条链的基本结构相似,但分别由不同的MHC基因编码,且均具有多态性。虽然Ⅱ类分子的晶体衍射结构尚未得到,但光谱分析已证明与Ⅰ类分子具有某种相似性。Ⅱ类分子二条多肽链也可分为四个区,见(图106):①肽结合区:α链与β链的胞外部位均可再分为二个各含90个氨基酸残基的片段,分别称为α1、α2和β1、β2。肽结合区包括α1和β1片段,该二片段构成肽结合的裂隙(cleft),约可容纳14个氨基酸残基。Ⅱ类分子的多态性残基主要集中在α1和β1片段,这种多态性决定了多肽结合部位的生化结构,也决定了与肽类结合以及T细胞识别的特异性和亲和力。②lg样区:此区由α2和β2片段组成,两者均含链内二硫键,并属于lg基因超家族。在抗原呈递过程中,TH细胞的CD4分子与Ⅱ类分子结合的部位即位于该lg样非多肽态区域。③跨膜区和胞浆区:该二区与Ⅰ类分子α链的相应区域结构相似。
5 HLA抗原的组织分布各类HLA抗原的组织分布不同。Ⅰ类抗原广泛分布于体内各种有核细胞表面,包括血小板和网织红细胞。除某些特殊血型者外,成熟的红细胞一般不表达Ⅰ类抗原。不同的组织细胞表达Ⅰ类抗原的密度各异。外周血白细胞和淋巴结、脾细胞所含Ⅰ类抗原量最多,其次为肝、皮肤、主动脉和肌肉。但神经细胞和成熟的滋养层细胞不表达Ⅰ类抗原。Ⅱ类抗原主要表达在某些免疫细胞表面,如B细胞、单核/巨噬细胞,树突状细胞,激活的t 细胞等,内皮细胞和某些组织的上皮细胞也可检出HLAⅡ抗原。另外,某些组织细胞在病理情况下也可异常表达Ⅱ类抗原。Ⅰ、Ⅱ类抗原主要分布在细胞表面,但也可能现于体液中,血清、尿液、唾液、 *** 及乳汁中均已检出可溶性HLAⅠ、Ⅱ类抗原。HLAⅢ类抗原一般指几种补体成分,它们均分布于血清中。
6 HLA抗原表达的调控在各类型细胞表面HLA分子表达与否以及表达的密度,可以受不同的因素调节。一般认为,调控HLA分子表达的主要环节是转录速率。可能影响HLA分子表达的因素有:①组织细胞的分化阶段:HLA分子是造血干细胞和某些免疫细胞的分化抗原,在细胞分化、成熟的不同阶段,各类HLA抗原的表达可有改变。例如HLADQ分子是人单核细胞的成熟标记;Ⅱ类抗原仅表达在激活的T细胞表面。②某些疾病状态:某些传染性疾病、免疫性疾病、造血系统疾病以及肿瘤均可影响HLA抗原表达。如AIDS病患者单核细胞HLAⅡ类抗原表达明显减少,某些肿瘤细胞表面HLAⅠ类抗原表达减少。③生物活性物质:某些细胞因子,例如三类干扰素(α、β、γ)以及TNFα、THFβ均可增强不同类型细胞HLAⅠ类抗原表达;具有Ⅱ类抗原诱生能力的细胞因子包括IFNγ、TNFα、IL6及GMCSF等。此外,某些激素、某些神经递质和神经肽也可影响HLA分子表达。
HLA分子在免疫应答与免疫调节中是一类关键的分子,故各种因素对HLA分子表达的调控可能是体内免疫调节网络的重要组成部分。同时,受各种调节因子的影响,HLA分子的异常表达也参与某些疾病的发病机制。
7 HLA与疾病相关性不同个体对疾病易感性的差异在很大程度上是由遗传因素所决定。在群体调查中比较患者与正常人某些特定等位基因及其产物的频率,这是研究遗传决定的对疾病易感性的主要方法。
HLA是目前已知的具有最复杂多态性的人类基因系统,且Ir基因正位于HLA复合体内,因此考虑到HLA与某些免疫性疾病可能存在相关性。60年代末通过对患者与正常人HLA抗原频率的群体调查,发现了某些疾病与特定的HLA型分别呈非随机分布。最典型的例子是91%以上的北美白人强直性脊柱炎患者带有HLAB27抗原。这种现象,即二个遗传学性状在群体中同时出现呈非随机分布,称为关联(association)。HLA是第一个被发现与疾病有明确联系的遗传系统。迄今已发现60余种疾病与HLA有关联,这些多属于病因或发病机制未知、与免疫异常有关,或有家族倾向及环境诱发因素的疾病。特定疾病与某种HLA型别的相关性可通过相对危险性(relative risk,RR)来评估,其计算公式为:
RRP+×C―/P―×C+
式中P+为具有某种抗原的病人数;C―为不带此抗原的对照组人数;P―为不带此抗原的病人数;C+为具有此抗原的对照组人数。RR表示带某种HLA抗原的人与无此种抗原的人在患某种疾病的危险性上的比值。RR1时,两者无关联;若RR>4,则认为此病与某种HLA抗原肯定有关联;RR值越大,表示带此抗原的人患某病的危险性越大。反之,若RR<1,表示带此抗原者某病有抵抗性。
在评估HLA与疾病的相关性时须注意下面几点:①发现HLA与某种疾病有关联,并不意味着携带某抗原就一定会患某病,HLA本身并不是病因而仅仅是一种遗传标志;②HLA抗原在群体中的分布与民族、人种、地理环境等有关,在研究与疾病的关联时应综合分析才有参考价值;③研究对象须是随机选择,无亲缘关系的:对照组与疾病相关性可能有助于某些疾病的辅助诊断,疾病的预测、分类以及预后的判断。表53列出某些疾病与HLA的相关性。
表53 HLA 和疾病的相关性
疾病 HLA抗原 相对危险性RR 强直性脊柱炎 Ⅰ类型?B27 >100 青少年类风湿性关节炎 B27 24 Reiter病 B27 30~50 牛皮癣性关节炎 B17 6 Bechat综合征 Cw6 9 发作性睡眠 B51 10~15 寻常天疱疮 Ⅱ类 DR2 20 I型糖尿病 DR4 24 多发性硬化症 DR3/DR4 20 全身性红斑狼疮 DR2 4 全身性硬化症 Ⅲ类 C4AQOC4BQO
C4AQO 6
11
9
迄今已检出了众多的HLA基因多态性标志。因此,有可能在DNA水平上探讨HLA与疾病的相关性,甚至发现一些与经典HLA抗原未表现出关联,但与HLA基因型别关联的疾病。可以预期,随着DNA水平的研究不断深入,最终有可能在HLA复合体中发现某些疾病的易感基因,甚至测出这些基因的核苷酸序列。这将有助于阐明某些疾病的发病机制,并在此基础上制订全新的防治措施。
HLA与疾病关联的机制尚未完全清楚,已提出的一些学说包括:①分子模拟学说:该学说认为,由于HLA抗原本身与某种病原物质相似,机体或者不能对该病原物质产生有效的免疫应答,或者在对病原物的应答中发生交叉反应反而损害了自身组织;②受体学说:HLA抗原可能作为外来病原物质的受体,两者结合导致组织损伤;③免疫应答基因学说:人的HLA基因就是Ir基因,特定的Ⅱ类基因型可能导致特定的异常免疫应答,从而表现为易感某种疾病;④连锁不平衡学说:特定的HLA基因可能与某病的易感基因连锁,HLA型别仅是一种检出的遗传标志。一般认为,与HLA有关联的不同病种可能有不同的机制。
8 HLA表达异常与疾病的关系HLA表达异常即细胞表面HLA分子质与量的异常,可参与疾病发生。
8.1 HLAⅠ类抗原表达异常在小鼠及许多人类肿瘤或肿瘤衍生的细胞株均已发现MHCⅠ类抗原表达缺失或密度降低。若将Ⅰ类基因转染给肿瘤细胞株,则恶变细胞可发生逆转,且浸润性与转移性消失或降低。这可能是由于MHCⅠ类抗原缺失的肿瘤细胞不能补TC识别并攻击,从而导致肿瘤免疫逃逸(sneaking through)。
8.2 HLAⅡ类抗原表达异常器官特异性自身免疫疾病的靶细胞可异常表达HLAⅡ类抗原。诸如Graves病患者的甲状腺上皮细胞、原发性胆管肝硬化患者的胆管上皮细胞、Ⅰ型糖尿病患者的胰岛β细胞等均可发现HLAⅡ抗原异常表达。其机制可能是局部感染诱生IFNγ,后者诱导Ⅱ类抗原表达。Ⅱ类抗原乃抗原呈递的效应分子,一旦靶细胞异常表达Ⅱ类抗原,就可能以组织特异性方式把自身抗原呈递给自身反应性T细胞,从而启动自身免疫反应。激活的自身反应性TH又可分泌大量IFNγ,诱导更多的靶细胞表达Ⅱ类抗原,加重和延续自身免疫反应,最终导致迁延不愈的自身组织损伤。
9 HLA与排斥反应移植物存活率很大程度上取决于供者和受者之间HLA型别相合的程度。在肾移植中,各HLA座配合的重要性依次为HLADR、HLAB、HLAA。近年来特别重视HLADP对移植器官长期存活的意义。在骨髓移植中,为预防严重的移植物抗宿主反应(graft versus host reaction,GVHR),一般要求从同胞中选择HLA全相同的个体作为供者。此外,某些输血反应以及习惯性流产也与HLA不兼容所导致的排斥反应有关。
10 HLA与法医由于HLA复合体的高度多态性,在无关个体间HLA表型全相同的机率极低,故HLA复合体被看作是伴随个体终生的特异性遗传标记。借助HLA基因型和(或)表型检测,可用于法医上的个体识别。另外,由于HLA复合体具有高度多态性以及单倍型遗传的特点,使HLA分型成为鉴定亲子关系的重要手段。
人体体表面积计算器 BMI指数计算及评价 女性安全期计算器 预产期计算器 孕期体重增长正常值 孕期用药安全性分级(FDA) 五行八字 成人血压评价 体温水平评价 糖尿病饮食建议 临床生化常用单位换算 基础代谢率计算 补钠计算器 补铁计算器 处方常用拉丁文缩写速查 药代动力学常用符号速查 有效血浆渗透压计算器 乙醇摄入量计算器 医学百科,马上计算! 11 HLA分型技术HLA分型并不只是一种应用性的临床检测指标,免疫遗传学研究的发展,很大程度上依赖于以分型为主要手段的HLA多态性分析。60年代建立的并不断完善的血清学及细胞学分型技术主要侧重于分析HLA产物特异性;80年代起建立的DNA分型方法则侧重于基因的分型。
11.1 血清学分型技术 11.1.1 HLAⅠ类抗原的检测HLAA、B、C抗原型别鉴定均借助微量淋巴细胞毒试验(microlymphocytotoxicitytest)或称补体依赖的细胞毒试验(plement dependent cytotoxicitytest)。原理为取已知HLA抗血清加入待测外周血淋巴细胞,作用后加入免补体,充分作用后加入染料,在倒置显微镜下判断结果,著染的细胞为死亡细胞,表示待检淋巴细胞表面具有已知抗血清所针对的抗原。标准抗原清取自多次经产妇或计划免疫志愿者。
11.1.2 HLADR、DQ抗原检测该二抗原分型方法同HLAⅠ类抗原,但所用抗血清须经过血小板吸收以去除针对Ⅰ类抗原的抗体。另外,待测细胞须是经纯化的B细胞。
血清学分型是一项古老的技术,虽然近年来已建立许多新的分型技术,但血清学方法目前仍是HLA分型的基础。
11.2 细胞学分型技术HLADw特异性与HLADP特异性可分别通过纯合分型细胞(homozygote typing cell,HTC)及预致敏淋巴细胞试验(primed lymphocyte test,PLT)检测。二种方法的基本原理均是判断淋巴细胞在识别非已HLA抗原决定簇后发生的增殖反应。由于分型细胞来源困难以及操作手续繁琐,细胞学分型技术下正逐渐淘汰。
11.3 HLA的DNA分型技术上述传统的HLA分型方法有许多不足之处,近年来国内外已将HLA分型技术由抗原水平发展到基因水平。
11.3.1 限制性片段长度多态性检测技术这是首先建立的对多态性进行检测的DNA分析技术。个体间抗原特异性来自氨基酸顺序的差别,后者由编码基因的堿基顺序不同所决定。这种堿基顺序的差别造成限制性内切酶识位置及酶切位点数目的不同,从而产生数量和长度不一的DNA酶切片段。用特异性探针对整个基因组DNA酶切片段进行杂交,即可分析限制性长度片段多态性(restriction fragment lengthpolymorphi *** ,RFLP)。一定的内切酶组合所得到的HLARFLP可以和传统方法测定的HLA特异性型别相关。80年代末发展起来的PCR(polymerase chain reaction)技术已被用于RFLP分析,即用等位特异限制酶裂解PCR扩增的片段,然后再进行分析,从而大提高了灵敏度。
11.3.2 PCR/SSO技术此法乃用人工合成的HLA型别特异的寡核苷酸序列作为探针,与待检细胞经PCR扩增的HLA基因片段杂交,从而确定HLA型别,PCR技术可将HLA复合体上指定基因片段特异性地扩增5~6个数量级;而专门设计的SSO(序列特异的寡核苷酸sequencedpecific oligonucleotide)探针又能探测出等位基因间1~2个核苷酸的差异,故PCR/SSO技术具有灵敏度、特异性强、需样本量少等优点。
11.3.3 PCR/SSP技术目前常规的HLADNA分型技术,包括上述的PCR/RFLP、PCR/SSO等,最终均需用标记的特性探针与扩增产物进行杂交,再分析结果。PCR/SSP方法用乃设计出一整套等位基因组特异性引物(sequence specific primer,SSP),借助PCR技术获得HLA型别特异的扩增产物,可通过电泳直接分析带型决定HLA型别,从而大大简化了实验步骤。
由于传统方法在Ⅱ类抗原分型方面困难较大,故上述几种基因分析型方法目前主要用于Ⅱ类基因座。此外,目前已建立的HLA基因分型技术还包括PCR单链构像多态性分析(PCRsingle strand conformational polymorphi *** ,PCRSSCP)和PCR 异源二聚体电泳多态即PCR指纹图(PCr fingerprinting)分析。DNA分型技术的应用,使HLA型别分析达到了更精细的水平,并因此发现了更多的HLA多态性。HLA的DNA分型技术现已成为血清学方法的竞争者,并可能在不久的将来完全取而代之。
HLA是目前所知人体最复杂的遗传多态性系统。HLA研究涉及免疫学、生物学、遗传学、分子生物学、医学等多个学科,并已发展成为一个独立的学科分支。迄今HLA研究已达到相当深入的水平,并在诸多方面取得显著进展,包括HLA复合体结构;HLA分子结构及其表达的调控;HLA分子功能,尤其是在抗原处理、呈递及T细胞识别中的作用;HLA的DNA分型及多态性研究;HLA与疾病的关系;HLA与移植的关系等。HLA研究不仅使器官移植成为一种极有价值的治疗手段,并给基础与临床免疫带来了突破性进展。已经证实,HLA复合体中存在控制免疫应答的基因以及HLA参与约束免疫细胞间相互作用,这表示HLA涉及生命活动的各个水平与多个方面。可以预期,对HLA的研究将继续成为免疫遗传学最活跃的部分;对HLA的应用将扩展到基础、临床、预防医学的各个领域。
开篇:风控评分卡知识总结
问到我的领域了。这个问题真心能写一本书,在百度有上百人从事和评估相关的工作
latent Z 说的七个维度,只是评估网页搜索效果的指标之一:Q-U相关性的评价标准中的一部分(直接从文档里抄下来的小标题啊!专业一点好不好……)
所谓检索满意度是个很虚的东西,但是可以从用户行为中看到端倪。通过分析用户点击顺序、停留时间,点击数量等,能够大概分析出一个用户是否满意,花了多长时间满意,被哪一个结果所满足。或者通过AB Test,Interleaving等方法,可以对比A、B搜索结果的好坏,得到一个相对值。举个简化了的栗子:
某用户搜了知乎,然后直接点击了首位的知乎网站,之后没有点别的。基本可以判断为满足了,而且满足程度非常高;某用户搜了苍老师最新作品下载,点了一个结果,过一会又来点另一个,过一会又来点……翻页点了十几个最后走了,他的满足程度可能就很低(都是无效资源啊,下载不了,只能一个一个换)这类方法的前提是你能够得到大量的用户行为统计,基于这些实际数据进行分析。但现实中并不是总有用户数据,比如新策略还没上线,或者你是竞争对手的人等等。
实际上还有五花八门的人工评估从各个角度判断搜索结果质量。人工评估就是将现实中用户的偏好抽象为几个考察点,比如上面说的七个维度,然后模拟这个过程。我说一点众所周知的思路吧:
对搜索结果中的前N条URL分别进行Query-URL相关性评估,并根据排名赋予权重,计算出一个值,名曰DCG,通过这个绝对数值反映单次搜索前N结果的质量将同一query下的百度搜索结果和竞品结果进行横向对比,判断好坏及程度,得出谁家搜索质量更好的结论,名曰Side-by-side。 在评估中如果隐去两侧所有品牌标识,并左右环境顺序随机互换,即为盲测,盲测的结论一般都会非常客观反应搜索引擎质量差距。以上是仅关注搜索结果及其排序的评估方法举例。除此之外,摘要、飘红、sug等感知项目,也都会影响到结论,每种都有自己的评估方法。
贴一个参考资料地址,说得很详细了:
鉴于有人还是觉得这事太抽象,我就举个具体的栗子
第一步:明确评估的背景、目的、你所掌握的资源在这里我们假设一个第三方研究者,想比较百度和谷歌搜索到底哪个好。这个问题在知乎经常有人讨论,但大家大多只是说自己的使用感受,而没有人能拿出信服的调研数据,现在我们就是要解决这个问题。由于作为第三方研究者很难获取到两个搜索引擎完整的用户行为,即使有了不可控变量也太多,无法得到严谨的结论。但是抓取双方的搜索结果是很容易的
第二步:确定评估方法评估的基本方法是显而易见的:选定N个query,把每一个query在两边同时搜一下就可以对二者进行横向比较了,最后算一个平均指标。
1 对前N结果(一般都是3,有时还有5或10)逐个判断相关性,然后根据位置赋予权重,分别计算两侧搜索结果质量值(DCG)
2 对两侧结果进行综合比较,给出一个相对值(左边好?右边好?好的程度?)
第四步:数据准备1抽query:在本次评估的背景下,从数量上来说,使用1000个query作为样本是性价比比较高的选择。太少的话波动大,太多会标到吐血(熟练标注员每人每天可以标100Q左右)。Query必须随机抽取于近期用户自然产生的query,而不是自己凭空编出来的1000个词,这样能够确保Query类型(长短冷热中外...)的分布接近实际比例,进而才有可靠的结论
2 抓网页:query确定下来,就要开始抓百度和谷歌的搜索结果了。为了保证结果公平可靠,应该进行盲测,即隐去两边品牌特征,再狠一点的,应该在评估过程中随机调换左右顺序。这里比较麻烦的是阿拉丁啊,知识图谱啊这类特型展现,熟悉搜索引擎的人一眼就看出是谁家的,这个暂时就没办法了,评估时尽量保持客观中立吧。
第五步:评估最主要的部分来了,这里要对抓取的结果进行人工评估。你可以自己一个人连评10天;或者找几个人一起做,但是要先对他们进行统一培训,以免标准不一;也可以找一群人,每个人都做一遍,然后取他们平均数也好多数投票也好,当然也得培训了,还得防着滥竽充数的。成本和靠谱程度依次递增。
第六步:统计这一步没啥好说的,按照之前想好的方式统计一下结果,做个总结就OK了。百度和谷歌谁更好,哪里好,好多少,一清二楚。
那些只知道往外扔一两个badcase来说明问题的人真是弱爆了……
策略产品经理 策略工作通用方法论
A卡一般可做贷款0-1年的信用分析,A卡中常用的有逻辑回归,AHPA卡用途:
B卡则是在申请人有了一定行为后,有了较大数据进行的分析,一般为3-5年。(多因素逻辑回归)
B卡用途:
C卡则对数据要求更大,需加入催收后客户反应等属性数据。(多因素逻辑回归)
评分卡计算:在建立标准评分卡之前,我们需要选取几个评分卡参数:基础分值、 PDO(比率翻倍的分值)和好坏比。 这里, 我们取600分为基础分值,PDO为20 (每高20分好坏比翻一倍),好坏比取20。
如果极值占比较高,需要分析是否要分多类
iv值判断标准
pyi是这个组中响应客户(风险模型中,对应的是违约客户,总之,指的是模型中预测变量取值为“是”或者说1的个体)占所有样本中所有响应客户的比例,pni是这个组中未响应客户占样本中所有未响应客户的比例
woe:
iv:
等距分箱
卡方分箱
最优分箱:决策树分箱
这里应该是基于不同的指标会作出不同的分箱,基于ks的,或者给予gini系数,信息熵的。
好的特征需要具备哪些优势?
稳定性高,区分度高,差异性大,符合业务逻辑,具备可解释性。
缺失值补充
异常值处理
数据分布分析
优点:简单、稳定、可解释、技术成熟、易于监测和部署
缺点:一定不能有缺失数据;必须是数值型特征,需要编码;准确度不高
优点:对数据质量要求不高,易解释
缺点:准确度不高
优点:准确度高,稳定性强,泛化能力强,不易过拟合
缺点:不易解释,部署困难,计算量大
其他稳定性指标:评分迁移矩阵、kendall 秩相关系数
ks(10等分):
TP:真实为1且预测为1的数目
FN:真实为1且预测为0的数目
FP:真实为0的且预测为1的数目
TN:真实为0的且预测为0的数目
真正类率(true positive rate ,TPR), 计算公式为TPR=TP/ (TP+ FN),
另外一个是假正类率(false positive rate, FPR),计算公式为FPR= FP / (FP + TN)
十等分之后的: ks=Max(TPR-FPR)
1、区分度:主要有KS和GINI指标,理解KS的定义及用法
2、准确性:主要有roc曲线和AUC指标,理解AUC的定义及用法
3、稳定性:主要有PSI指标,理解PSI的定义及用法
auc和ks的关系?
有人说auc是衡量整个模型的排序能力,KS是衡量某个分段的区分能力。
拿逻辑回归举例,模型训练完成之后每个样本都会得到一个类概率值(注意是类似的类),把样本按这个类概率值排序后分成10等份,每一份单独计算它的真正率和假正率,然后计算累计概率值,
AUC值就是ROC曲线下放的面积值,而ks值就是ks曲线中两条曲线之间的最大间隔距离
ROC值一般在0.5-1.0之间。值越大表示模型判断准确性越高,即越接近1越好。ROC=0.5表示模型的预测能力与随机结果没有差别。
KS值表示了模型将+和-区分开来的能力。值越大,模型的预测准确性越好。一般,KS>0.2即可认为模型有比较好的预测准确性。
roc,auc,
纵轴:TPR=正例分对的概率 = TP/(TP+FN),其实就是查全率
横轴:FPR=负例分错的概率 = FP/(FP+TN)
lift
洛伦兹曲线
验收:测试、等级划分、额度设计、风险定价、ABtest的设计等等
仅适用于申请评分卡
建立申请评分卡的时候,
粗略的看:
策略体系:
规则类型:
参考资料:
信用评分卡模型
信用风险与评分卡研究
3.1 策略PRD的撰写方法
一、需求文档
确定项目计划后,PM开始撰写需求,产出需求文档,正式发起项目。
1.需求文档的目的?
让项目的参与方和其他对项目感兴趣的角色更好的理解需求的来龙去脉。
2.一个完整的需求文档应该包括以下几个部分:
项目背景、项目目标、 需求概述、需求详述、 (统计需求、监控需求)
本文主要讲述策略PRD与功能PRD不同的地方:需求概述、需求详述。
二、功能产品与策略产品给出的解决方案
1.功能产品
收敛 的解决方案,通过 流程和原型 表达产品的实现效果
2.策略产品
发散 的解决方案,通过 逻辑描述和效果示例 表达产品实现效果
三、策略产品四要素
课程截图
四、策略分类
1.简单策略
逻辑简单直接的需求,通常开发成本较小
2.复杂策略
逻辑复杂的需求,通常开发成本较大
五、需求描述方法
1.简单策略
PM可以 直接给出策略规则 (包括待解决问题、输入、计算逻辑、输出四要素的部分或全部)
例子:
课程截图
方法:
1)基于历史数据给出 (已有一定数据积累的情况下)
2)参照竞品给出 (多用产品从0到1搭建,没有数据积累的时候)
案例:
课程截图
为什么是3分钟?
首先明确产品目标和策略目标
输入密码产品的目标:保障安全性,同时不影响用户的正常操作体验
输入密码间隔策略的目标:找到那个不影响体验的最短时间间隔
如何利用基于历史数据和参照竞品的方法确定策略规则?
1)基于历史数据
课程截图
定义完整使用流程
抽样分析用户全天的行为记录,得到一次完整使用流程的定义:任意两个动作间间隔小于30分钟的动作序列。(人工分析判断)
统计流程中间隔
课程截图
找到目标间隔时间
课程截图
2)参照竞品
经过多次重复尝试,确认竞品定义了超过3分钟用户就要再次输入密码,那自己的产品也可以暂定为3分钟
2.复杂策略
PM详细描述解决问题、输入因素、输出效果,包括总结性的概述和示例case(来源于问题调研)。
计算逻辑由策略RD开发实现。
实际工作中的两类项目:
1)从0到1的项目:更多描述理想态,在怎样的输入下要达到怎样的输出效果
2)策略迭代的项目:更多描述策略现状,待解决的问题是什么,针对这些问题,理想的输出效果该怎样的。
案例1:
课程截图
需求描述: 待解决问题
需求详述:
输入因素和输出效果的概述
各类特殊情况下的计算逻辑补充
输入因素和输出效果的详述(case示例)
例子:
课程截图
课程截图
案例2:
课程截图
课程截图
六、需求文档自检清单
结构: 逻辑清晰,层次分明
背景: 需求背景描述清晰,待解决问题一目了然
目标: 产品理想态或考核指标是什么
示例: 通过示例辅助,让问题更明确和清晰
七、总结
策略需求文档的核心是将策略的四要素描述清楚。
其中针对复杂策略,可以跳过计算逻辑这个要素,但是需要通过具体的case示例将问题和产品实现效果更清晰地表达出来。
3.2策略PM如何跟进开发评估
一、策略类项目的流程
课程流程
二、为什么要做多轮评估?
课程截图
三、评估类型
课程截图
四、策略质量评估
策略质量评估用来说明 策略本身的质量
输出结论: 该策略的召回率和准确率
1)召回率=希望被覆盖的案例中,策略实际覆盖到的案例/理想态下希望策略覆盖到的案例
代表策略对问题的解决程度
2)准确率=策略覆盖的案例中,真正希望被覆盖到的/策略覆盖的所有案例
代表策略有没有带来其他伤害
(我们希望两者越高越好!)
例子:
课程截图
以上例子中,
召回率=6/10=60%
准确率=6/9=66.7%
策略质量评估方法:
课程截图
案例:性别识别策略
在所有用户中随机抽取1k人,通过策略识别,其中368个人为男生。对1k个人进行人工标注,共标注385个男生、78个无法识别,剩余女生。其中策略识别为男生的对象中有314个真的为男生、22个是人工标注的无法识别,策略识别成女生的里面还有71个是男生,那么:
召回率 =识别出的男生314/所有男生385=81.6%
准确率 =(真正的男生314+无法识别22)/策略识别的所有男生368=91.3%
(注意这里的无法识别问题)
五、Diff评估
在一个复杂的策略体系中,各种策略会相互作用,共同影响最终效果,比如搜索、推荐。
在迭代其中某条策略时,除了评估策略本身的召回和准确,还要关注在策略变化前后, 用户角度直接感受到的产品效果变化是怎样的。
输出结论: diff影响面、good:same:bad
1) diff影响面: 策略调整后,用户感知发生变化的比例,通常小于策略影响面
2) good:same:bad(简称g:s:b): 随机抽样有变化的case,站在用户体验角度评估效果变好了、无变化、还是变差了。
例子:
课程截图
Diff评估方法:
课程截图
案例:性别识别策略
在所有用户中随机抽取1k个人,新旧策略分别识别后,有210个结果不同。98个新策略男、旧策略女,112个新策略女、旧策略男。
对这210个结果进行人工标注,其中135个是新策略对、旧策略错,24个新策略错、旧策略对,还有51个人工判断不出性别,认为新旧策略识别是男是女都可以、新旧变化为same,那么:
diff影响面: 新旧结果不同的210/所有样本1000=21%
G:S:B= 135:51:24
六、策略评估三步方法论
策略PM通用方法论
课程截图
第一步:基于理想态,找到问题
策略召回率理想是100%,目前只有60%,剩余40%没被策略召回
策略diff评估中占比10%的bad?case
第二步:汇总和抽象问题,提出解决问题思路or方向
40%未召回case主要是3类问题,分别应该通过xxx思路解决
目前占比10%的bad?case主要是xxx原因,需要解决
第三步:给出结论
问题依然很严重,需要继续优化or问题可接受、策略可以上线了
老问题:以投入产出比为主要考虑因素,通常以项目预期为终点
新问题:通常容忍度较低。以pm认为的不可忍受的体验为标准
七、简单策略评估循环的案例
课程截图
课程截图
课程截图
项目目标:准确识别出图中的蓝色点
第一轮评估:
第一步:基于理想态,找到问题
绿圈里的蓝点没有被曲线覆盖
错误覆盖了红圈里的两个点
第二步:汇总和抽象问题,提出解决问题or思路
1、2的点在曲线上方,3在下方,至少是2次函数
1和2的斜率不一样,可能是3次或更复杂函数
第三步:给出结论
目前方案只能勉强覆盖三个点、召回率不到30%;
准确率也一般,召回了两个绿点,准确率只有60%。
还需要继续优化。
课程截图
课程截图
第二轮评估:
第一步:基于理想态,找到问题
圈2里还有一个点没有召回
第二步:汇总和抽象问题,提出解决问题or思路
之前提过的呀,1和2的斜率不一样,可能是3次或更复杂函数,用2次函数搞不定的
第三步:给出结论
其实目前召回率已经90%+了,准确也非常好。可以上线了。
不过如果成本可控的话,再努力下最后一个点?
第三轮评估:
课程截图
八、总结
开发过程中的评估是策略PM的必经之路,是PM和RD通过深度配合在黑暗中找到道路的重要环节。
召回率、准确率、diff影响面、g:s:b四个指标是策略评估的主心骨,所有评估都是围绕着他们发现和抽象问题的过程。
3.3策略PM如何做效果回归
课程截图
效果回归作为策略产品工作循环的最后一步,不仅仅是结束,更是新产品问题的开始。
一、什么是效果回归?
无非是要回答三个问题:
课程绩图
二、如何做效果回归呢?
也是用到了策略工作的基础方法论
课程绩图
效果回归五步法:
第一步:明确预期:产品/项目目标是什么
第二步:指标体系:该目标可以用哪些数据指标来衡量
第三步:确定上线方式
第四步:收集第二步的指标,看是否达到第一步的预期
第五步:分析问题,产出结论
1.项目启动前
课程绩图
建立指标体系
回答三个问题
1)问题和目标是什么: 找到核心指标
2)解决问题和实现目标的关键路径是什么: 找到过程指标
3)新的路径伤害了谁: 找到观察指标
2.开发上线
课程截图
1)全流量上线
如果核心/过程/观察指标仅与本项目有关,评估效果很好、希望尽快上线拿到收益时,可选择全流量上线
回归方法: 实验期同比上个时间周期,变化了xx%
2)小流量上线
如果核心/过程/观察指标变化可能受项目外的因素影响,或者项目效果存在一定不确定性时,尽量选择AB test
回归方法: 实验流量比基线流量,变化了xx%
注意:
抽样方法是否足够随机。
样本集合是否有天然差异。
先进行流量空跑,避免问题。
3.上线后
课程截图
课程截图
三、效果回归案例
课程截图
1.项目启动前指标拆分
1)核心指标
产品目标: 降低用户输入成本
核心指标: 用户输入时间,预期降低2秒
2)过程指标
课程截图
用户输入效率的影响因素:sug展现的比例,在哪个输入长度下展现,是否被用户点击
过程指标: sug展现率、平均输入长度、sug点击率
3)观察指标
sug改动对输入流程的影响是可控的,对输入后搜索体验的影响是不确定的。
(某种程度上,sug起到了推荐的作用)
观察指标: sug输入query的搜索结果满足度
2.开发上线
选择上线方式
小流量上线: 实验组、对照组各10%流量
3.上线后回归
核心指标: 降低了1.2秒。有收益,但是低于预期。
过程指标和观察指标:
平均输入长度变短,符合预期;
sug展现率变低,点击率没变化,与预期不符;
并且sug输入query的搜索满足度降低,用户体验差。
需要进一步分析问题!
分析后结论:
1)性能有问题,导致长词汇(多term)sug的加载过慢,拉低了平均展现率和使用率。
需要启动性能优化项目
2)在一些热门候选词上做了需求扩展(欢乐颂2剧情介绍),对应的搜索结果质量变差
需要联合搜索排序(基础rank)部门优化效果
四、总结
效果回归是决定一个产品循环终止或再开始的枢纽。
整个工作贯穿项目前后三个阶段;项目启动前 对策略目标和过程的深刻剖析 是效果回归工作最关键和重要的部分。
消息推送策略的产生、演化、发展——以京东到家为例
课程截图
以一个小的策略为例,看看在完整的产品循环下策略的通用方法论是如何应用的—— 京东到家的消息推送策略 。
首先回顾下 策略工作的通用方法论
课程截图
理解产品目标
产品目标: 通过消息出大用户,实现相应的转化目的
核心指标: 消息点击率
注意:
本案例中覆盖的消息 仅指活动类消息 ,不包括各类业务消息(比如订单发货、退款、订阅更新等业务环节的提醒)
版本0.0:人工推送
产品方案: 运营同学写好文案,通过简易的消息推送工具给全部注册用户发送消息
推送效果: 点击率只有0.5%
发现问题
采用 阶段性调研 的方法
课程截图
问题分析
理想态: 所有人都点击
未达理想态: 有99.5%的人都没有点击,怎么拆解?
PM对用户的理解还较少,提出新的分析思路: 反向看点击的人,对比点击的人和没点击的人有什么差异,试着分析其中的规律
课程截图
进一步分析:
1)这次推送对活跃用户的效果更好,点击率大概7.4%,非活跃用户只有0.1%。虽然预期会有差异,但是差距太大,需要试着优化针对不活跃用户的推送内容
2)活跃用户中,android点击率23%、iphone用户点击率3.5%。差异非常大,不符合认知,猜测可能大量iphone关掉了app推送
版本1.0:增加基于用户分层的推送
产品方案:
1)基于用户基础信息和历史行为挖掘用户标签:活跃程度、手机平台
2)运营可根据标签配置不同的文案和推通道
3)增加短信推送通道
课程截图
推送规则: iphone增加短信通道一起推送,android仅进行app推送
效果回归
推送效果: 点击率提升至1.5%
1)活跃用户点击率提升至11%,其他用户点击率0.5%,都提升明显
2)iphone点击率0.7%,android用户点击率2.4%,iphone转化率依然不高
结论: 短信通道的效果不好,需要分析问题。另外,可以进一步分析其他待优化点。
问题分析
首先分析短信通道问题,发现:
1)app中没有埋点,所以点击短信短连接后无法调起app
2)而且短信中的短连接没有加统计标识,打开的移动端网页不知道这是短信带来的流量
然后对没有点击的个用户群各自抽样分析,发现:
1)没有点击的用户都是曾经很少买或没有买过肉蛋奶类商品的用户。在活跃用户中表现尤其显著。
2)同时补充抽样点击用户,发现86%的用户都有>2个包含该品类的订单
——可以考虑更细化的推送内容
版本2.0:个性化的内容推送
产品方案:
1)收集更多用户历史行为(订单、收藏、搜索、浏览等),建立更加细化的用户标签,用于内容推荐
2)收集平台商品上架和价格等信息的变化和常规活动信息,作为待推送内容集合
3)根据用户标签和候选内容,生成基于每个用户兴趣的内容
4)设置推送频率限制,在允许频率内,当某用户存在可推送内容时,自动进行推送
此时,运营同学只需要配置各类兴趣维度的模板,系统自动发起推送。
课程截图
课程截图
效果回归
推送效果: 点击率提升至2.5%
1)iphone点击率2.1%,android用户点击率2.6%,两者非常接近了,符合预期
2)优化内容后,各类用户的点击率均有可以明显提示
结论: 比较符合预期,可以进一步分析其他待优化点
继续对比点击和未点击用户差异,并随机抽取用户详细分析,发现:
1)各推荐维度在不同品类上有不同表现
2)不同用户对同一种推荐维度的点击率也差异很大
3)同一用户在不同时间段的点击率有比较明显的差异
——可以在推荐特征中增加品类和用户历史点击数据;可以将推送时间纳入个性化推荐
版本3.0:基于反馈的推荐系统
产品方案:
1)将推送时间纳入推送控制
2)继续丰富推荐使用的标签数据
3)将每个用户的点击行为作为推荐优化的重要依据,不停迭代
课程截图
总结
消息推送的效率本质: 给合适的用户在合适的时间点发送合适的消息
合适最初由PM定义,最终根据数据反馈确定
课程截图
在这个完整的案例中,产品一步步进化,从功能到策略、从简单策略到复杂策略,我们依次优化了消息推送的四个要素,达到了相对理想的状态。
在这个过程中,我们仅 以问题驱动 ,并加入了 优先级判断 的分析。
而在实际项目中,限于 成本收益和平台数据的积累程度 ,很多消息推送策略停留在1.0或2.0版本即中止进化了。
实例策略工作通用方法论的应用——以滴滴APP的目的地输入模块为例
课程截图
以一个复杂的策略模块为例,看看在完整的产品循环下策略的通用方法论是如何应用的。——滴滴APP的目的地输入模块
策略工作的通用方法论
课程截图
理解产品目标
模块目的: 帮助用户以最低成本完成目的地的输入
衡量指标: 用户平均输入时长(从进入该模块到完成一次输入的平均耗时)
版本1.0:简易搜索
课程截图
课程截图
发现问题
使用阶段性调研的方法:
课程截图
1.0问题分析
课程截图
课程截图
理想态: 可以暂且定为2,点击目的地框——>点击历史记录两步
问题拆分: 主要目标34567向2努力,次要目标每个步长都缩短自己的平均时间
随机抽取 一周内 (滴滴有周末效应,POI不同)的用户 完成输入 的session共1000个,问题分析结论如下:
课程截图
搜索sug-过程指标
用户输入效率的影响因素: sug展现的比例,在哪个输入长度下展现,是否被用户点击
过程指标: sug展现率、平均输入长度、sug点击率
解决方案
针对以上各个问题,分别提出解决方案
课程截图
方案收益分析
针对各个解决方案,与RD一起分析可行性后得到项目预期收益
课程截图
产出项目计划
最终得到下个版本的项目计划如下:
课程截图
版本2.0:搜索建议+搜索推荐
课程截图
课程截图
2.0效果回归
让我们看一下项目上线后,每个问题的解决程度
课程截图
2.0问题分析
针对两个明显与预期不符的问题进行分析
问题1:步长2的输入时间没有按预期降低:
1)部分低频用户数据积累不够,导致排序出现不合理波动,排序策略需要微调;
2)以及随着数据积累整体效果会逐渐变好。
问题2:步长3的用户目的地已在历史记录中:
1)发现在网络不佳的情况下搜索推荐加载过慢,所以用户使用低于预期。
2)考虑在启动app时进行预加载
2.0问题进一步分析-还有没有可能更好
课程截图
理想态有没有可能是1,甚至是0?
步长2: 其中50%是非常有规律的通勤订单(基于出发地和出发时间段可以准确预测出目的地)
步长3: 其中20%是有规律的订单
——完全可以考虑把搜索推荐的结果前置到发单页!
版本3.0项目计划
综合效果回归的结论,与RD沟通可行性之后,3.0的项目计划如下:
课程截图
目的地推荐(高准确率的搜索推荐前置)+搜索推荐+搜索建议
课程截图
搜索输入策略框架的延伸
1.百度地图APP
搜索起始页
1)搜索框在首页上方,是空白的,没有很多推荐内容,只有一个用户教育的提示
2)在页面中间,表示当前位置的蓝点上有个“回家”的提示,点击之后可以直接发起回家路线的搜索
输入页
好了,今天关于“abtest样本量的确定”的话题就到这里了。希望大家通过我的介绍对“abtest样本量的确定”有更全面、深入的认识,并且能够在今后的学习中更好地运用所学知识。