导航:首页 > 数据处理 > 关联分析数据去哪里找

关联分析数据去哪里找

发布时间:2023-02-06 10:32:36

1. 用R语言进行关联分析

用R语言进行关联分析
关联是两个或多个变量取值之间存在的一类重要的可被发现的某种规律性。关联分析目的是寻找给定数据记录集中数据项之间隐藏的关联关系,描述数据之间的密切度。
几个基本概念
1. 项集
这是一个集合的概念,在一篮子商品中的一件消费品即为一项(Item),则若干项的集合为项集,如{啤酒,尿布}构成一个二元项集。
2. 关联规则
一般记为的形式,X为先决条件,Y为相应的关联结果,用于表示数据内隐含的关联性。如:,表示购买了尿布的消费者往往也会购买啤酒。
关联性强度如何,由三个概念——支持度、置信度、提升度来控制和评价。
例:有10000个消费者购买了商品,其中购买尿布1000个,购买啤酒2000个,购买面包500个,同时购买尿布和面包800个,同时购买尿布和面包100个。
3. 支持度(Support)
支持度是指在所有项集中{X, Y}出现的可能性,即项集中同时含有X和Y的概率:
该指标作为建立强关联规则的第一个门槛,衡量了所考察关联规则在“量”上的多少。通过设定最小阈值(minsup),剔除“出镜率”较低的无意义规则,保留出现较为频繁的项集所隐含的规则。
设定最小阈值为5%,由于{尿布,啤酒}的支持度为800/10000=8%,满足基本输了要求,成为频繁项集,保留规则;而{尿布,面包}的支持度为100/10000=1%,被剔除。
4. 置信度(Confidence)
置信度表示在先决条件X发生的条件下,关联结果Y发生的概率:
这是生成强关联规则的第二个门槛,衡量了所考察的关联规则在“质”上的可靠性。相似的,我们需要对置信度设定最小阈值(mincon)来实现进一步筛选。
具体的,当设定置信度的最小阈值为70%时,置信度为800/1000=80%,而的置信度为800/2000=40%,被剔除。
5. 提升度(lift)
提升度表示在含有X的条件下同时含有Y的可能性与没有X这个条件下项集中含有Y的可能性之比:
该指标与置信度同样衡量规则的可靠性,可以看作是置信度的一种互补指标。
R中Apriori算法
算法步骤:
1. 选出满足支持度最小阈值的所有项集,即频繁项集;
2. 从频繁项集中找出满足最小置信度的所有规则。
> library(arules) #加载arules包
> click_detail =read.transactions("click_detail.txt",format="basket",sep=",",cols=c(1)) #读取txt文档(文档编码为ANSI)
> rules <- apriori(click_detail, parameter =list(supp=0.01,conf=0.5,target="rules")) #调用apriori算法
> rules
set of419 rules
> inspect(rules[1:10]) #查看前十条规则
解释
1) library(arules):加载程序包arules,当然如果你前面没有下载过这个包,就要先install.packages(arules)
2) click_detail =read.transactions("click_detail.txt",format="basket",sep=",",cols=c(1)):读入数据
read.transactions(file, format =c("basket", "single"), sep = NULL,
cols = NULL, rm.plicates =FALSE, encoding = "unknown")
file:文件名,对应click_detail中的“click_detail.txt”
format:文件格式,可以有两种,分别为“basket”,“single”,click_detail.txt中用的是basket。
basket: basket就是篮子,一个顾客买的东西都放到同一个篮子,所有顾客的transactions就是一个个篮子的组合结果。如下形式,每条交易都是独立的。
文件形式:
item1,item2
item1
item2,item3
读入后:
items
1 {item1,
item2}
2 {item1}
3 {item2,
item3}
single: single的意思,顾名思义,就是单独的交易,简单说,交易记录为:顾客1买了产品1, 顾客1买了产品2,顾客2买了产品3……(产品1,产品2,产品3中可以是单个产品,也可以是多个产品),如下形式:
trans1 item1
trans2 item1
trans2 item2
读入后:
items transactionID
1 {item1} trans1
2 {item1,
item2} trans2
sep:文件中数据是怎么被分隔的,默认为空格,click_detail里面用逗号分隔
cols:对basket, col=1,表示第一列是数据的transaction ids(交易号),如果col=NULL,则表示数据里面没有交易号这一列;对single,col=c(1,2)表示第一列是transaction ids,第二列是item ids
rm.plicates:是否移除重复项,默认为FALSE
encoding:写到这里研究了encoding是什么意思,发现前面txt可以不是”ANSI”类型,如果TXT是“UTF-8”,写encoding=”UTF-8”,就OK了.
3) rules <- apriori(click_detail,parameter = list(supp=0.01,conf=0.5,target="rules")):apriori函数
apriori(data, parameter = NULL, appearance = NULL, control = NULL)
data:数据
parameter:设置参数,默认情况下parameter=list(supp=0.1,conf=0.8,maxlen=10,minlen=1,target=”rules”)
supp:支持度(support)
conf:置信度(confidence)
maxlen,minlen:每个项集所含项数的最大最小值
target:“rules”或“frequent itemsets”(输出关联规则/频繁项集)
apperence:对先决条件X(lhs),关联结果Y(rhs)中具体包含哪些项进行限制,如:设置lhs=beer,将仅输出lhs含有beer这一项的关联规则。默认情况下,所有项都将无限制出现。
control:控制函数性能,如可以设定对项集进行升序sort=1或降序sort=-1排序,是否向使用者报告进程(verbose=F/T)
补充
通过支持度控制:rules.sorted_sup = sort(rules, by=”support”)
通过置信度控制:rules.sorted_con = sort(rules, by=”confidence”)
通过提升度控制:rules.sorted_lift = sort(rules, by=”lift”)
Apriori算法
两步法:
1. 频繁项集的产生:找出所有满足最小支持度阈值的项集,称为频繁项集;
2. 规则的产生:对于每一个频繁项集l,找出其中所有的非空子集;然后,对于每一个这样的子集a,如果support(l)与support(a)的比值大于最小可信度,则存在规则a==>(l-a)。
频繁项集产生所需要的计算开销远大于规则产生所需的计算开销
频繁项集的产生
几个概念:
1, 一个包含K个项的数据集,可能产生2^k个候选集

2,先验原理:如果一个项集是频繁的,则它的所有子集也是频繁的(理解了频繁项集的意义,这句话很容易理解的);相反,如果一个项集是非频繁的,则它所有子集也一定是非频繁的。

3基于支持度(SUPPORT)度量的一个关键性质:一个项集的支持度不会超过它的子集的支持度(很好理解,支持度是共同发生的概率,假设项集{A,B,C},{A,B}是它的一个自己,A,B,C同时发生的概率肯定不会超过A,B同时发生的概率)。
上面这条规则就是Apriori中使用到的,如下图,当寻找频繁项集时,从上往下扫描,当遇到一个项集是非频繁项集(该项集支持度小于Minsup),那么它下面的项集肯定就是非频繁项集,这一部分就剪枝掉了。
一个例子(网络到的一个PPT上的):
当我在理解频繁项集的意义时,在R上简单的复现了这个例子,这里采用了eclat算法,跟apriori应该差不多:
代码:
item <- list(
c("bread","milk"),
c("bread","diaper","beer","eggs"),
c("milk","diaper","beer","coke"),
c("bread","milk","diaper","beer"),
c("bread","milk","diaper","coke")
)
names(item) <- paste("tr",c(1:5),sep = "")
item
trans <- as(item,"transactions") #将List转为transactions型
rules = eclat(trans,parameter = list(supp = 0.6,
target ="frequent itemsets"),control = list(sort=1))
inspect(rules) #查看频繁项集
运行后结果:
>inspect(rules)
items support
1{beer,
diaper} 0.6
2{diaper,
milk} 0.6
3{bread,
diaper} 0.6
4{bread,
milk} 0.6
5{beer} 0.6
6{milk} 0.8
7{bread} 0.8
8{diaper} 0.8
以上就是该例子的所有频繁项集,然后我发现少了{bread,milk,diaper}这个项集,回到例子一看,这个项集实际上只出现了两次,所以是没有这个项集的。
规则的产生
每个频繁k项集能产生最多2k-2个关联规则
将项集Y划分成两个非空的子集X和Y-X,使得X ->Y-X满足置信度阈值
定理:如果规则X->Y-X不满足置信度阈值,则X’->Y-X’的规则一定也不满足置信度阈值,其中X’是X的子集
Apriori按下图进行逐层计算,当发现一个不满足置信度的项集后,该项集所有子集的规则都可以剪枝掉了。

2. 数据挖掘方法入门——关联分析

自然界中,某件事情发生时,其他事件也会发生,这种联系称为关联。关联分析就是为了寻找事物之间的一些有趣的关联关系。

最让人熟知的就是购物篮分析,商场在分析用户经常同时购买“啤酒、尿布“、“篮球”、“篮球服”等商品组合,于是将其放在一起以促进销售。这种关联关系的分析,不仅应用与网站设计者可以根据访客日志数据,发现访客浏览习惯和网站页面间的关系。

拿某个商场的交易数据中进行分析,数据集中有限的项目经过排列组合以后可以产生大量的关联规则,但是,只有一小部分的规则会是用户感兴趣的,因此需要引入一个“兴趣度”的概念帮助用户评估得到的关联规则。

而与兴趣度评估相关的度量包括:简洁性、正确性、实用性、新颖性

1)简洁性:太复杂的规则会让用户的兴趣度降低,也难以解释和理解

2)正确性:令人信服的程度有多高。

正确性的判断指标是置信度,表示这个规则正确的概率有多大。即在某一项x出现的前提下,另外一项y出现的频率是多少。

置信度confident(x=>y)=p(y|x)

3)实用性:判断该规则再次出现的可能性有多大,即这个指标的覆盖率。

实用性的判断指标是支持度,支持度越大说明规则应用越广泛,即xy同时出现的频率.

支持度support(x=>y)= p(x U y)

4)新颖性:判断规则是否已经被导出的另外一个规则作蕴含。

在这4个指标中,置信度和实用性是用来评判一条规则是强关联规则的依据。

强关联规则:同时满足用户定义的最小支持度阈值和最小置信度阈值的关联规则

弱关联规则:不满足最小支持度阈值和最小置信度阈值的关联规则

5)改善度:

期望可信度是在x没有影响的作用下y出现的频率,p(i)

改善度则是评估x的出现对y的出现的影响性。p(y|x)/p(x)越大,则改善度越高,说明x的出现对y的可能影响就越大。

1)布尔规则和量化规则

(1)布尔规则:性别=女=》职业=老师

(2)量化规则:性别=女=》平均收入=2300

量化关联规则可以直接对原始数据进行处理,或先对数值型属性进行分区间进行动态分割

2)单层规则和多层关联规则

在单层规则中,所有的项不考虑现实数据的多层性,而在实际应用中,涉及不同的抽象层发现的多层关联规则则是一种更有用的关联规则,因为属性之间存在一种层次关系。

(1)不涉及不同抽象层的项的规则称为单层关联规则

adidas篮球=》nike篮球服

(2)较高层次和较低层次之间规则称为多层关联规则

adidas篮球=》篮球服

3)单维规则和多维规则

(1)单维关联规则:处理同一个属性或维度内的联系。

adidas篮球=》nike篮球服

(2)多维关联规则:多个属性或维度之间的联系。

用户的年龄和购买物品

3. spss分析方法-对应分析(转载)

对应分析也称关联分析、R-Q型因子分析,通过分析由定性变量构成的交互汇总表来揭示变量间的联系。对应分析法是在R型和Q型因子分析的基础上发展起来的一种多元统计分析方法。 下面我们主要从下面四个方面来解说:

[if !supportLineBreakNewLine]

[endif]

实际应用

理论思想

建立模型

[if !supportLineBreakNewLine]

[endif]

分析结果

[if !supportLineBreakNewLine]

[endif]

一、实际应用

对应分析法 可以揭示同一变量的各个类别之间的差异,以及不同变量各个类别之间的对应关系 。当所涉及的 分类变量类别较多或者分类变量的个数较多 的时候,我们就需要用到对应分析。主要应用在市场细分、产品定位、地质研究以及计算机工程等领域中。原因在于,它是一种视觉化的数据分析方法,它能够将几组看不出任何联系的数据,通过视觉上可以接受的定位图展现出来。

[if !supportLineBreakNewLine]

[endif]

二、理论思想

由于指标型的因子分析和样品型的因子分析反映的是一个整体的不同侧面,因此它们之间一定存在内在的联系。如果能够有效利用这种内在联系所提供的信息,对更全面合理地分析数据具有很大的帮助。在因子分析中,如果研究的对象是样品,可采用Q型因子分析;如果研究的对象是变量,则需采用R型因子分析。但是,因为这两种因子分析方法必须分别对样品和变量进行处理,所以这两种分析方法往往存在着相互对立的关系,为我们发现和寻找它们的内在联系制造了困难。而对应分析通过一个过渡矩阵Z将两者有机地结合了起来。 对应分析的基本思想是将一个联列表的行和列中各元素的比例结构,以点的形式在较低维的空间中表示出来。 首先,给出指标变量点的协差阵A=Z,Z和样品点的协差阵B=ZZ’,由于两者有相同的非零特征根,所以可以很方便地借助指标型因子分析而得到样品型因子分析的结论。如果对每组变量选择前两列因子载荷,那么两组变量就可以画出两个因子载荷的散点图。由于这两个图所表示的载荷可以配对,于是就可以把这两个因子载荷的两个散点图画到同一张图中,并以此来直观地显示各行变量和各列变量之间的关系。

[if !supportLineBreakNewLine]

[endif]

三、建立模型

[if !supportLineBreakNewLine]

[endif]

数据条件:

[if !supportLists]§ [endif]不能用于相关关系的假设检验

对应分析案例:

[if !supportLineBreakNewLine]

[endif]

题目:费希尔在1940年首次介绍列联表资料时使用的是一份关于眼睛颜色与头发颜色的调查研究数据。该研究数据包含了5387名苏格兰北部的凯斯纳斯郡的小学生的眼睛颜色与头发颜色,如下表所示。试用对应分析方法研究眼睛颜色与头发颜色之间的对应关系。

一、数据输入

二、操作步骤 1、进入SPSS,打开相关数据文件,因为本例中是以频数格式录入数据的(相同取值的观测只录入一次,另加一个频数变量用于记录该数值共出现了多少次),所以进入SPSS后,首先要对数据进行预处理,以频数变量进行加权,从而将数据指定为该种格式。选择“数据”|“个案加权”命令。首先在“个案加权”对话框的右侧选中“个案加权系数”单选按钮,然后在左侧的列表框中选择“频数”进入“频率变量”列表框。单击“确定”按钮,完成数据预处理。

2、选择“分析”|“降维”|“对应分析”命令。先定义行变量及其取值范围,即在“对应分析”对话框的左侧选择“眼睛颜色”进入右侧的“行”列表框,然后单击下方的“定义范围”按钮,在“最小值”中输入“1”,“最大值”输入“4”,单击“更新”按钮,最后单击“继续”按钮返回“对应分析”对话框。利用同样的方法定义列变量及其取值范围。列变量选择“头发颜色”,设置“最小值”为“1”,“最大值”为“5”。

3、其余设置采用系统默认值即可。单击“确定”按钮,等待输出结果。

[if !supportLineBreakNewLine]

[endif]

四、结果分析

1、对应分析表下表是按照原始数据整理而成的行列表,反映的是眼睛颜色和头发颜色不同组合下的实际样本数。

2、对应分析摘要在下表中,第一列是维度,其个数等于变量的最小分类数减1,本例中的最小分类数是眼睛颜色的种类(为4类),所以维度是3;第2~5列分别表示奇异值、惯量、卡方值和显着性;随后的列给出了各个维度所能解释的两个变量关系的百分比,容易发现,前两个维度就累计解释了99.6%的信息。

3

、对应分析坐标值及贡献值下表给出了行变量(眼睛颜色)和列变量(头发颜色)在各个维度上的坐标值,以及各个类别对各维数的贡献值。以本表上部分概述行点为例,对表中各列含义做一下简要说明。 “ 数量”列表示各种类别的构成比 ,如深色眼睛的人占总数的构成比例是0.244。 “维得分”列表示各类别在相关维数上的评分 ,首先给出的是默认提取的两个维数上各类别的因子负荷值。 “惯量”列给出了总惯量(0.23)在行变量中的分解情况,数值越大表示该类别对惯量的贡献越大。“点对维的惯量”表示在各个维数上,信息量在各类别间的分解状况 ,本例中第一维数主要被深色、蓝色、浅色所携带,也就是说这3个类别在第一维数上的区分比较好,第二维数主要被深色、棕色、蓝色所携带,说明这3个类别在第二维数上的区分比较好。 “维对点的惯量”表示各类别的信息在各维数上的分布比例 ,本例中深色、蓝色、浅色都主要分布在第一维数上,棕色主要分在第二维数上。 “总计”表示各维数的信息比例之和 ,可见红色这一类别在前两位中只提出了80.3%的信息,效果最差。

4、对应分析图下表是对应分析图,是对应分析中最主要的结果,从图中可以看出两个变量不同类别之间的关系。我们可以从两个方面来阅读本图:一方面可以分别从横坐标和纵坐标方向考察变量不同类别之间的稀疏,如果靠得近,则说明在该维数上这些类别之间差别不大;另一方面可以把平面划分为以(0,0)为原点的4个象限,位于相同象限的不同变量的分类点之间的关联较强。容易发现本例中:棕色头发和棕色眼睛,深色头发、黑色头发和深色眼睛,金色头发和蓝色眼睛、浅色眼睛存在着比较强的联系。

分析结论: 通过分析,我们可以知道:由结果分析1可知,眼睛颜色和头发颜色在不同组合下的实际样本数。由结果分析2可知,提取的前两个维数累计就已解释了99.6%的信息。由结果分析3可知,眼睛颜色和头发颜色在各个维数上的坐标值,以及各个类别对各个维数的贡献值。由结果分析4可知,棕色头发和棕色眼睛,深色头发、黑色头发和深色眼睛,金色头发和蓝色眼睛、浅色眼睛存在着比较强的联系。

(获取更多知识,前往 gz 号程式解说)

原文来自 https://mp.weixin.qq.com/s/Bt4IzRvcDRAtHKUtmuO57w

4. 用大数据分析找出数据间隐藏的关联性

用大数据分析找出数据间隐藏的关联性
智能穿戴设备监测健康、城市交通和天气的观测、抓捕罪犯、金融监管……伴随着大数据呈现出无孔不入的趋势,大数据分析开始成为人类进行科学决策的重要工具。从IT时代向DT时代的转变,大数据分析技术用迅速、精准的方式构建更加低成本、高效率的商业社会,并作为时下最为流行的技术之一,已经渗透到行业的方方面面,帮助企业用数据驱动业务的发展。
“DT时代的到来,对客户全方位的了解可谓是全所未有的。有了数据分析技术,企业可以将服务做的更细致全面,将被动转变为主动。”北京明略软件系统有限公司副总裁兼金融事业部总经理周卫天认为,大数据与行业的融合,让数据本身的价值得到了加倍的提升。
深度挖掘不同数据源间的隐藏关系
成立于2014年的北京明略软件系统有限公司是一家明略数据专注于关系挖掘的大数据行业应用解决方案提供商。作为一家成立仅两年的初创企业,目前明略数据已经完成了A轮融资,B轮融资将会在明年(2016年)第二季度完成。当前明略数据主要服务包括金融业、制造业、政府等行业部门在内的大型国企。“针对金融行业和公安部门这类客户,大数据分析技术首先体现的是精准,通过关系分析管理,从而直达目标群体。”周卫天说道。
金融业是最先落地大数据的行业之一,现在国内不少银行已经开始尝试通过大数据来驱动业务的运营。明略数据推出的大数据分析整合平台,帮助银行实现了风险管控、精准营销、征信管理、舆情监控等一系列的优化和提升。
·风险管控、反欺诈应用:利用数据分析,进行贷款质量评估,规避坏账风险。对中小企业融资风险监控,实现尽早发现企业违约风险。
·精准营销:在客户画像的基础上开展一系列包括交叉营销、个性化推荐、实时营销、客户生命周期管理等精准营销管理。
·征信/催收放贷增收:基于IP、GPS物理位置定位客户行为轨迹,加强银行信用卡征信审核。根据关联客户关系网,进行债务催收。
·舆情监控:检测客服中心、网上留言、社交媒体等信息,制定有效的客户维系及挽留措施。
公安/刑侦是目前明略数据服务的另一大主要行业,通过隐藏的数据关系通过算法、分析进行挖掘,快速的帮助公安部门找到有效信息,从而顺藤摸瓜,抓到罪犯,提升紧急事件的应对能力。举个简单的例子,通过最开始的订票信息,IP地址,到后来的车次、酒店信息、运营商的数据,将数据间进行关联分析,就可以确定订票人之间的关系。
给用户“技术+服务”两大保障
以上介绍的金融业和公安部门是明略数据主要服务的两大行业、部门,对此也不难从侧面发现明略数据针对数 据安全性可以给出较高的保障。作为一个数据服务商,明略数据从网络安全、技术数据安全、使用安全等多方面入手,做到让客户安心。周卫天介绍,明略数据是国 内外第一家在SQL on Hadoop三大查询引擎(Hive, Impala和Spark SQL)上实现行,列级别细颗粒度的权限控制大数据平台供应商。
有了技术上的优势,也就有了竞争的底气。在被问到如何在国内的大数据市场中抢占份额的时候,周卫天的说 法很淡然,尽管国内的巨头已经进入进来,但市场很大,对像明略数据这样快速成长的企业还是存在很大的机会。另外,明略的优势是拥有专业的技术团队,可以把 海量的数据源进行关联分析、深度挖掘,找出其中所隐藏的关系线索。
谈到今后的发展策略,除了技术的专注,服务好现有客户将是明略数据近几年关注的焦点。据了解,2016年明略数据将扩大各省市分公司规模,采取就近布局,包括市场、内部管理运营制定一系列的分级响应措施, 增强客户的售后服务。此外在未来,明略数据也会邀请客户和技术人员进入到项目中来,以便更好地了解技术的使用,从而可以快速上手,以周卫天的话说,这也是客户增值服务的另一个角度。

5. 如何转化为关联分析的数据

关联分析又称关联挖掘,就是在交易数据、关系数据或其他信息载体中,查找存在于项目集合或对象集合之间的频繁模式、关联、相关性或因果结构。
或者说,关联分析是发现交易数据库中不同商品(项)之间的联系。

6. 如何用excel进行两组数据的关联性分析应该用什么方法如何展示

做下对比分析就行了,月度对比、工作日与非工作日、问题类型占比(这个月是哪个类型多,下个月是哪个类型多这一类的变化)等等

7. 我想学习灰色关联分析方法,哪里有相关资料

灰色关联分析理论及方法
对于两个系统之间的因素,其随时间或不同对象而变化的关联性大小的量度,称为关联度。在系统发展过程中,若两个因素变化的趋势具有一致性,即同步变化程度较高,即可谓二者关联程度较高;反之,则较低。因此,灰色关联分析方法,是根据因素之间发展趋势的相似或相异程度,亦即“灰色关联度”,作为衡量因素间关联程度的一种方法[16]。灰色系统理论提出了对各子系统进行灰色关联度分析的概念,意图透过一定的方法,去寻求系统中各子系统(或因素)之间的数值关系。因此,灰色关联度分析对于一个系统发展变化态势提供了量化的度量,非常适合动态历程分析。

灰色系统关联分析的具体计算步骤如下:
(1)确定反映系统行为特征的参考数列和影响系统行为的比较数列
反映系统行为特征的数据序列,称为参考数列。影响系统行为的因素组成的数据序列,称比较数列。
(2)对参考数列和比较数列进行无量纲化处理
由于系统中各因素的物理意义不同,导致数据的量纲也不一定相同,不便于比较,或在比较时难以得到正确的结论。因此在进行灰色关联度分析时,一般都要进行无量纲化的数据处理。
(3)求参考数列与比较数列的灰色关联系数ξ(Xi)
所谓关联程度,实质上是曲线间几何形状的差别程度。因此曲线间差值大小,可作为关联程度的衡量尺度。
(4)求关联度ri
因为关联系数是比较数列与参考数列在各个时刻(即曲线中的各点)的关联程度值,所以它的数不止一个,而信息过于分散不便于进行整体性比较。因此有必要将各个时刻(即曲线中的各点)的关联系数集中为一个值,即求其平均值,作为比较数列与参考数列间关联程度的数量表示。
(5)排关联序
因素间的关联程度,主要是用关联度的大小次序描述,而不仅是关联度的大小。将m个子序列对同一母序列的关联度按大小顺序排列起来,便组成了关联序,记为{x},它反映了对于母序列来说各子序列的“优劣”关系。若r0i>r0j,则称{xi}对于同一母序列{x0}优于{xj},记为{xi}>{xj} ;若r0i表1 代表旗县参考数列、比较数列特征值。

8. 如何从客户购买商品数据列表中找出商品的关联,急求!!

如果是E表。你就直接筛选客户名,或者用E表的透视表来体现也可以

阅读全文

与关联分析数据去哪里找相关的资料

热点内容
怎么去龙洞华侨职业技术学校 浏览:299
你是如何获取租房信息的 浏览:931
代理费多少钱什么意思 浏览:189
安信证券交易界面怎么显示 浏览:183
东阳卖狗的宠物市场在哪里 浏览:98
不当交易检察官最后怎么样了 浏览:964
xbox怎么交易 浏览:296
交易猫如何100退款成功 浏览:993
高中生信息泄露有什么后果 浏览:330
如何构建企业信息利用 浏览:976
线上怎么销售产品图片 浏览:14
电脑股票交易明细按哪个键 浏览:365
注塑产品如何开机 浏览:989
建设银行普通信息卡是哪个 浏览:368
电商黑马技术有多少 浏览:963
三圣花乡花市场搬到哪里去了 浏览:294
口腔医学技术多少人学 浏览:312
权健产品什么时候重新上市 浏览:638
做电商怎么跑市场 浏览:340
双子冠军有哪些产品 浏览:329