导航:首页 > 数据处理 > 如何选海量数据

如何选海量数据

发布时间:2023-01-05 19:28:04

❶ 如何利用excel实现自动从海量数据里筛选出来订购商品数量总数超过50件

使用透视表,可以把每个客户的订单数汇总,然后筛选出50件以上的客户,如果需要查看具体清单,透视表中双击客户即可。

❷ Excel的筛选工具,于海量数据中亦能捞出所需

在使用Excel分析大量的数据时,有一个非常好用的工具——筛选,可以帮助我们从庞大的数据中筛选出指定条件的数据。

01

我们先来看一个简单的筛选范例。

在如下图的数据表中,我们要筛选出客户名为“Christy Brittain”的订单信息。

幸运的是,我们在打开工作簿后在当前所显示的数据表区域中就可以找到目标客户的名称,如在C10单元格。此时快速进行筛选的操作是:在选中当前单元格情况下,鼠标右键,找到“筛选”选项。

选择并点击“按所选单元格的值筛选”,即可快速筛选出于目标数据。

除了“按所选单元格的值筛选”,我们还看到有其他的选项,如单元格的颜色、单元格的字体颜色、单元格的图标等。可根据不同的需求来进行筛选。

那筛选工具仅仅是如此简简单单的一个工具吗?当然不是。

我们先来看一下“筛选”这个工具位于菜单栏的哪个位置?

点击“数据”选项卡,在“排序和筛选”区域,我们可以看到“筛选”工具及其相关的其他工具。

02

接下来,我们来看一个稍微复杂一些的范例,要求是筛选出同时满足以下三个条件的数据:

1. City(城市)为Sydney;

2. 时间为2016年;

3. 总额超过10000;

第一步,我们先筛选出符合城市条件的数据。

点击数据表格中的任意单元格,再点击“筛选”工具按钮,即可看到数据表格中首行的抬头所在的单元格最右侧都会有一个小图标,这些筛选用的小图标对应每一列的数据。

点击“City”这一列的筛选小图标,再取消勾选非“Sydney”的选项。

点击“确定”后即可筛选出目标数据。

应用筛选后,我们发现工作表区域最左侧的行号变成了蓝色,同时City所在单元格的筛选图标变成了一个筛选器图标。

第二步,我们在已筛选出数据的基础上再筛选出时间为2016年的数据。

点击“Order Date”所在单元格的筛选图标,只勾选“2016”。(注意:当筛选项很多时,我们可以先取消勾选“全选”,再勾选我们需要的选项。)

点击“确定”后即可筛选出2016年的城市为“Sydney”的数据。

Excel的筛选功能还为我们提供了更多的“日期筛选”的选择,可根据实际需求进行设置。

第三步,在以上数据的基础上再次筛选出“Total”总额大于10000的数据。

点击“Total”所在单元格的筛选图标,因涉及的数据量很多,我们使用“数字筛选”中的“大于”选项。

选择并点击“大于”选项后,会打开一个对话框,我们输入数值条件,再点击“确定”。

完成之后,我们看到最终筛选出的数据只有三条。

03

最后,我们来看一下如何取消筛选器。

如果要取消多个筛选器中的一个,我们可以点击该筛选器,然后勾选“全选”。

点击“确定”后,筛选器图标会重新变成筛选图标。

如果我们要取消所有的筛选器,则点击“数据”选项卡下的“筛选”工具按钮右侧的“清除”按钮。

清除筛选器后,回到筛选初始界面。

如果我们要取消筛选,则再次点击“数据”选项卡下的“筛选”工具按钮。

Excel的筛选功能中有很多筛选条件的设置,都可根据我们在实际工作中的需要来调整,真可谓能做到在数据海洋中捞到我们所需的那一部分,便利而高效。

❸ 互联网如何海量存储数据

目前存储海量数据的技术主要包括NoSQL、分布式文件系统、和传统关系型数据库。随着互联网行业不断的发展,产生的数据量越来越多,并且这些数据的特点是半结构化和非结构化,数据很可能是不精确的,易变的。这样传统关系型数据库就无法发挥它的优势。因此,目前互联网行业偏向于使用NoSQL和分布式文件系统来存储海量数据。

下面介绍下常用的NoSQL和分布式文件系统。
NoSQL
互联网行业常用的NoSQL有:HBase、MongoDB、Couchbase、LevelDB。

HBase是Apache Hadoop的子项目,理论依据为Google论文 Bigtable: A Distributed Storage System for Structured Data开发的。HBase适合存储半结构化或非结构化的数据。HBase的数据模型是稀疏的、分布式的、持久稳固的多维map。HBase也有行和列的概念,这是与RDBMS相同的地方,但却又不同。HBase底层采用HDFS作为文件系统,具有高可靠性、高性能。

MongoDB是一种支持高性能数据存储的开源文档型数据库。支持嵌入式数据模型以减少对数据库系统的I/O、利用索引实现快速查询,并且嵌入式文档和集合也支持索引,它复制能力被称作复制集(replica set),提供了自动的故障迁移和数据冗余。MongoDB的分片策略将数据分布在服务器集群上。

Couchbase这种NoSQL有三个重要的组件:Couchbase服务器、Couchbase Gateway、Couchbase Lite。Couchbase服务器,支持横向扩展,面向文档的数据库,支持键值操作,类似于SQL查询和内置的全文搜索;Couchbase Gateway提供了用于RESTful和流式访问数据的应用层API。Couchbase Lite是一款面向移动设备和“边缘”系统的嵌入式数据库。Couchbase支持千万级海量数据存储
分布式文件系统
如果针对单个大文件,譬如超过100MB的文件,使用NoSQL存储就不适当了。使用分布式文件系统的优势在于,分布式文件系统隔离底层数据存储和分布的细节,展示给用户的是一个统一的逻辑视图。常用的分布式文件系统有Google File System、HDFS、MooseFS、Ceph、GlusterFS、Lustre等。

相比过去打电话、发短信、用彩铃的“老三样”,移动互联网的发展使得人们可以随时随地通过刷微博、看视频、微信聊天、浏览网页、地图导航、网上购物、外卖订餐等,这些业务的海量数据都构建在大规模网络云资源池之上。当14亿中国人把衣食住行搬上移动互联网的同时,也给网络云资源池带来巨大业务挑战。

首先,用户需求动态变化,传统业务流量主要是端到端模式,较为稳定;而互联网流量易受热点内容牵引,数据流量流向复杂和规模多变:比如双十一购物狂潮,电商平台订单创建峰值达到58.3万笔,要求通信网络提供高并发支持;又如优酷春节期间有超过23亿人次上网刷剧、抖音拜年短视频增长超10倍,需要通信网络能够灵活扩充带宽。面对用户动态多变的需求,通信网络需要具备快速洞察和响应用户需求的能力,提供高效、弹性、智能的数据服务。

“随着通信网络管道十倍百倍加粗、节点数从千万级逐渐跃升至百亿千亿级,如何‘接得住、存得下’海量数据,成为网络云资源池建设面临的巨大考验”,李辉表示。一直以来,作为新数据存储首倡者和引领者,浪潮存储携手通信行业用户,不断 探索 提速通信网络云基础设施的各种姿势。

早在2018年,浪潮存储就参与了通信行业基础设施建设,四年内累计交付约5000套存储产品,涵盖全闪存储、高端存储、分布式存储等明星产品。其中在网络云建设中,浪潮存储已连续两年两次中标全球最大的NFV网络云项目,其中在网络云二期建设中,浪潮存储提供数千节点,为上层网元、应用提供高效数据服务。在最新的NFV三期项目中,浪潮存储也已中标。

能够与通信用户在网络云建设中多次握手,背后是浪潮存储的持续技术投入与创新。浪潮存储6年内投入超30亿研发经费,开发了业界首个“多合一”极简架构的浪潮并行融合存储系统。此存储系统能够统筹管理数千个节点,实现性能、容量线性扩展;同时基于浪潮iTurbo智能加速引擎的智能IO均衡、智能资源调度、智能元数据管理等功能,与自研NVMe SSD闪存盘进行系统级别联调优化,让百万级IO均衡落盘且路径更短,将存储系统性能发挥到极致。

“为了确保全球最大规模的网络云正常上线运行,我们联合用户对存储集群展开了长达数月的魔鬼测试”,浪潮存储工程师表示。网络云的IO以虚拟机数据和上层应用数据为主,浪潮按照每个存储集群支持15000台虚机进行配置,分别对单卷随机读写、顺序写、混合读写以及全系统随机读写的IO、带宽、时延等指标进行了360无死角测试,达到了通信用户提出的单卷、系统性能不低于4万和12万IOPS、时延小于3ms的要求,产品成熟度得到了验证。

以通信行业为例,2020年全国移动互联网接入流量1656亿GB,相当于中国14亿人每人消耗118GB数据;其中春节期间,移动互联网更是创下7天消耗36亿GB数据流量的记录,还“捎带”打了548亿分钟电话、发送212亿条短信……海量实时数据洪流,在网络云资源池(NFV)支撑下收放自如,其中分布式存储平台发挥了作用。如此样板工程,其巨大示范及拉动作用不言而喻。

❹ 处理海量数据时,如何摆脱人工筛选实现自动化--- excel攻略

有的时候统计工作特别繁琐,如果数据量少,简单的筛选还可以完成相应的工作。当数据非常庞大的时候,仅仅靠人工筛选很难准确及时地完成任务。

比如,面对一列繁杂的数据,需要整理出所有出现过的数据的频次,并且将之归类,按照每项分别出现多少次,按照降序依次整理成图表是一件非常困难的事情。那么善于使用EXCEL与否决定了一个人的工作效率。下面介绍一种方法,可以有效的从一列繁杂的混乱的数据中筛选出所有的类别,并且加以排序,形成图表。

假如需要统计的海量数据文本在C列。选择文本所在列C列,点击数据---删除重复项。即可以得到所有不重复的分类文本。为了后续操作方便,建议在第一步中,删除重复项的操作中,将C列先复制到A列或者你想要复制到的任何一列,再进行第一步的操作。

以复制到A列为例。在A列中得出不重复的分类文本之后,可以开始统计每个分类文本在原文本中所出现的次数。

为了后续生成图表,将A列筛选出的不良项,粘贴复制到D项。 (注意:不在 D 项直接操作第一步动作的原因是,为了防止后续重复使用此文本时候造成混乱,所以建议第一步在A 列操作。)

用countif函数开始统计每个在第一步中选出的不重复项在原文本所在C列的次数。在E2中输入公式=countif(C列,D2),则可以统计出D2项在C列出现的次数。往下拖动,则可以统计出各项文本在原文本中出现的次数。

3.1 上图是已经排序之后的结果。一般筛选出来的数据是随机的。选择D列与E列,点数据---排序,会出现以下对话框。

3.2 点击添加条件,按照下图文本中设置。

3.3点击确定,所选中文本会按照降序排列。

选取D列与E列,然后插入图表,可形成按照降序排列的直方图。

于是,繁杂而庞大的数据在几分钟内可以搞定。并且此类文本可以反复利用,非常方便快捷。当别人还在苦苦搜索不同类项目的时候,你可以出去吃喝玩乐啦。

❺ 如何用matlab筛选出海量数据(地形高程数据)各点间满足一定坡度条件的数据,求程序。

由于没有看到具体的数据和坡度条件方程,所以根据我的想法给你一些建议。
1、首先从数据文件(xls、txt、mat等格式)将数据调入A变量中
2、A变量中分离出x、y、z的数值
3、自定义坡度条件方程,func=@(x,y,z) 坡度条件函数表达式
4、用循环语句和判断语句,分离出符合坡度条件的数值,并储存在B变量中
5、将B变量中的数据,写入指定的数据文件中

❻ 如何选择大数据分析工具

当企业发展到一定阶段之后,企业的数据也会逐渐累积丰富,对数据分析的时效性、准确性也有越来越高的要求。为了更快的满足业务部门的数据分析需求,搭建自助数据分析平台是大势所趋。

对于一般企业的可视化数据分析需求来说,由于可视化分析工具市面上已经有不少成熟的产品,相比于自研一个新产品,成熟产品的用户教育成本更低、实施更快、稳定性也比较好,因此有不少公司都不会重复造轮子。但相应的,在进行可视化数据分析产品,即商业BI工具的选型时,我们常常会遇到以下问题:

1、 市场上BI工具的同质化严重,各家基本功能差不多;

2、 纯工具的采购风险很高,能不能用起来对客户本身有很大的挑战。

3、 工具的后续运营和持续价值如何发挥。

那么围绕这三个核心问题,面向市场营销等企业常见的普通业务场景,部门决策人在进行BI工具软件的选型时具体应该考虑哪些细节?我们采访了多位资深市场营销人,一起来听听他们的建议。

选购工具软件之前,要先明确自己的核心业务需求

BI领域作为一个相对成熟和清晰的方向,产品同质化在国内市场上表现的非常明显,且竞争更激烈。在网上随便搜索,都有几十家或大或小的产品可供选择。但是深入研究后就会发现,成熟的商业工具在核心功能上差别不大,你家支持大屏设计,我家也可以;你家数据源丰富我家也不差;你家操作简单,我家上手也容易……

所以,从工具功能本身而言,只要是国内正规产品厂商,基本都能符合企业使用场景和需求,这时我们就需要在采购之前详细分析自身的使用需求,尤其要关注本部门和其他部门在数据分析领域的长期使用需求前景和一些企业的一些业务特点。

比如说如果企业内部对BI工具的使用需求较频繁,需要工具平台开设大量储备账号和兼具较高的查询效率,那么类似Power BI这类小而美的工具就不太适合你;而如果企业自身对数据分析的质量要求较高,除可视化数据分析之外还需要进行数据模型机器学习分析的相关工作,那么你可能就更需要像美林数据旗下Tempo大数据分析平台这样能够兼容数据处理、数据建模、数据分析多维度功能的工具。

还有类Excel的数据处理、丰富的图形组件、智能化图形推荐、业务计算规划……等各种基础功能,业务用户简单培训,即可自主开展数据分析与探索。

归根结底,无论是大数据与人工智能技术,还是SCRM、BI、AI工具的选项,都是一种解决问题的新方法或者辅助支撑,要让技术或者工具发挥价值,首先要明确业务需求与工作目标,与自身业务深度结合,才能真正的赋能业务,实现业务价值。与此同时自身业务能力的提升也很关键,工具+意愿+能力,才能推动业务不断变革提升,实现长远收益。

❼ 求excel大神 如果一个海量数据表 如何筛选已经有的不同颜色

excel提供了按照颜色筛选的功能,可以按照如下步骤操作,选中表格第一行数据,按筛选快捷键【ctrl+shift+L】筛选,然后点击筛选图标,按照颜色筛选。之后选中筛选后的数据任一单元格,【ctrl+a】全部选中之后复制到新表即可。

❽ 急!!!在MATLAB中怎样筛选海量数据!

真个好办,使用find函数就可以了。
a =

1 3
2 5
3 9
4 14
5 8
6 7
7 6
8 5
9 4
10 3
11 2
12 1
13 0
14 -1
15 -2

>> [x,y]=find(a(:,:)==2)

x =

2
11

y =

1
2

>> c=[1,2,3,4];find(c==2)

ans =

2
上面的例子中,如果你的数据是个矩阵的话,返回的分别是对应行数和列数。
如果你的数据是一维向量的话,返回的就是顺序号了。

❾ 如何处理海量数据

在实际的工作环境下,许多人会遇到海量数据这个复杂而艰巨的问题,它的主要难点有以下几个方面:
一、数据量过大,数据中什么情况都可能存在。
如果说有10条数据,那么大不了每条去逐一检查,人为处理,如果有上百条数据,也可以考虑,如果数据上到千万级别,甚至 过亿,那不是手工能解决的了,必须通过工具或者程序进行处理,尤其海量的数据中,什么情况都可能存在,例如,数据中某处格式出了问题,尤其在程序处理时, 前面还能正常处理,突然到了某个地方问题出现了,程序终止了。
二、软硬件要求高,系统资源占用率高。
对海量的数据进行处理,除了好的方法,最重要的就是合理使用工具,合理分配系统资源。一般情况,如果处理的数据过TB级,小型机是要考虑的,普通的机子如果有好的方法可以考虑,不过也必须加大CPU和内存,就象面对着千军万马,光有勇气没有一兵一卒是很难取胜的。
三、要求很高的处理方法和技巧。
这也是本文的写作目的所在,好的处理方法是一位工程师长期工作经验的积累,也是个人的经验的总结。没有通用的处理方法,但有通用的原理和规则。
下面我们来详细介绍一下处理海量数据的经验和技巧:
一、选用优秀的数据库工具
现在的数据库工具厂家比较多,对海量数据的处理对所使用的数据库工具要求比较高,一般使用Oracle或者DB2,微软 公司最近发布的SQL Server 2005性能也不错。另外在BI领域:数据库,数据仓库,多维数据库,数据挖掘等相关工具也要进行选择,象好的ETL工具和好的OLAP工具都十分必要, 例如Informatic,Eassbase等。笔者在实际数据分析项目中,对每天6000万条的日志数据进行处理,使用SQL Server 2000需要花费6小时,而使用SQL Server 2005则只需要花费3小时。
二、编写优良的程序代码
处理数据离不开优秀的程序代码,尤其在进行复杂数据处理时,必须使用程序。好的程序代码对数据的处理至关重要,这不仅仅是数据处理准确度的问题,更是数据处理效率的问题。良好的程序代码应该包含好的算法,包含好的处理流程,包含好的效率,包含好的异常处理机制等。
三、对海量数据进行分区操作
对海量数据进行分区操作十分必要,例如针对按年份存取的数据,我们可以按年进行分区,不同的数据库有不同的分区方式,不 过处理机制大体相同。例如SQL Server的数据库分区是将不同的数据存于不同的文件组下,而不同的文件组存于不同的磁盘分区下,这样将数据分散开,减小磁盘I/O,减小了系统负荷, 而且还可以将日志,索引等放于不同的分区下。
四、建立广泛的索引
对海量的数据处理,对大表建立索引是必行的,建立索引要考虑到具体情况,例如针对大表的分组、排序等字段,都要建立相应 索引,一般还可以建立复合索引,对经常插入的表则建立索引时要小心,笔者在处理数据时,曾经在一个ETL流程中,当插入表时,首先删除索引,然后插入完 毕,建立索引,并实施聚合操作,聚合完成后,再次插入前还是删除索引,所以索引要用到好的时机,索引的填充因子和聚集、非聚集索引都要考虑。
五、建立缓存机制
当数据量增加时,一般的处理工具都要考虑到缓存问题。缓存大小设置的好差也关系到数据处理的成败,例如,笔者在处理2亿条数据聚合操作时,缓存设置为100000条/Buffer,这对于这个级别的数据量是可行的。
六、加大虚拟内存
如果系统资源有限,内存提示不足,则可以靠增加虚拟内存来解决。笔者在实际项目中曾经遇到针对18亿条的数据进行处理, 内存为1GB,1个P42.4G的CPU,对这么大的数据量进行聚合操作是有问题的,提示内存不足,那么采用了加大虚拟内存的方法来解决,在6块磁盘分区 上分别建立了6个4096M的磁盘分区,用于虚拟内存,这样虚拟的内存则增加为 4096*6 + 1024 =25600 M,解决了数据处理中的内存不足问题。
七、分批处理
海量数据处理难因为数据量大,那么解决海量数据处理难的问题其中一个技巧是减少数据量。可以对海量数据分批处理,然后处 理后的数据再进行合并操作,这样逐个击破,有利于小数据量的处理,不至于面对大数据量带来的问题,不过这种方法也要因时因势进行,如果不允许拆分数据,还 需要另想办法。不过一般的数据按天、按月、按年等存储的,都可以采用先分后合的方法,对数据进行分开处理。
八、使用临时表和中间表
数据量增加时,处理中要考虑提前汇总。这样做的目的是化整为零,大表变小表,分块处理完成后,再利用一定的规则进行合 并,处理过程中的临时表的使用和中间结果的保存都非常重要,如果对于超海量的数据,大表处理不了,只能拆分为多个小表。如果处理过程中需要多步汇总操作, 可按汇总步骤一步步来,不要一条语句完成,一口气吃掉一个胖子。
九、优化查询SQL语句
在对海量数据进行查询处理过程中,查询的SQL语句的性能对查询效率的影响是非常大的,编写高效优良的SQL脚本和存储 过程是数据库工作人员的职责,也是检验数据库工作人员水平的一个标准,在对SQL语句的编写过程中,例如减少关联,少用或不用游标,设计好高效的数据库表 结构等都十分必要。笔者在工作中试着对1亿行的数据使用游标,运行3个小时没有出结果,这是一定要改用程序处理了。
十、使用文本格式进行处理
对一般的数据处理可以使用数据库,如果对复杂的数据处理,必须借助程序,那么在程序操作数据库和程序操作文本之间选择, 是一定要选择程序操作文本的,原因为:程序操作文本速度快;对文本进行处理不容易出错;文本的存储不受限制等。例如一般的海量的网络日志都是文本格式或者 csv格式(文本格式),对它进行处理牵扯到数据清洗,是要利用程序进行处理的,而不建议导入数据库再做清洗。
十一、定制强大的清洗规则和出错处理机制
海量数据中存在着不一致性,极有可能出现某处的瑕疵。例如,同样的数据中的时间字段,有的可能为非标准的时间,出现的原因可能为应用程序的错误,系统的错误等,这是在进行数据处理时,必须制定强大的数据清洗规则和出错处理机制。
十二、建立视图或者物化视图
视图中的数据来源于基表,对海量数据的处理,可以将数据按一定的规则分散到各个基表中,查询或处理过程中可以基于视图进行,这样分散了磁盘I/O,正如10根绳子吊着一根柱子和一根吊着一根柱子的区别。
十三、避免使用32位机子(极端情况)
目前的计算机很多都是32位的,那么编写的程序对内存的需要便受限制,而很多的海量数据处理是必须大量消耗内存的,这便要求更好性能的机子,其中对位数的限制也十分重要。
十四、考虑操作系统问题
海量数据处理过程中,除了对数据库,处理程序等要求比较高以外,对操作系统的要求也放到了重要的位置,一般是必须使用服务器的,而且对系统的安全性和稳定性等要求也比较高。尤其对操作系统自身的缓存机制,临时空间的处理等问题都需要综合考虑。
十五、使用数据仓库和多维数据库存储
数据量加大是一定要考虑OLAP的,传统的报表可能5、6个小时出来结果,而基于Cube的查询可能只需要几分钟,因此处理海量数据的利器是OLAP多维分析,即建立数据仓库,建立多维数据集,基于多维数据集进行报表展现和数据挖掘等。
十六、使用采样数据,进行数据挖掘
基于海量数据的数据挖掘正在逐步兴起,面对着超海量的数据,一般的挖掘软件或算法往往采用数据抽样的方式进行处理,这样 的误差不会很高,大大提高了处理效率和处理的成功率。一般采样时要注意数据的完整性和,防止过大的偏差。笔者曾经对1亿2千万行的表数据进行采样,抽取出 400万行,经测试软件测试处理的误差为千分之五,客户可以接受。
还有一些方法,需要在不同的情况和场合下运用,例如使用代理键等操作,这样的好处是加快了聚合时间,因为对数值型的聚合比对字符型的聚合快得多。类似的情况需要针对不同的需求进行处理。
海量数据是发展趋势,对数据分析和挖掘也越来越重要,从海量数据中提取有用信息重要而紧迫,这便要求处理要准确,精度要高,而且处理时间要短,得到有价值信息要快,所以,对海量数据的研究很有前途,也很值得进行广泛深入的研究。

❿ 数据库有很多不同的类型,到底哪种能够满足你的需求如何挑选适合的数据库呢

数据库选型,归根结底需要根据需求来进行决策。一般而言,在进行数据库选型时,需要考虑以下方面。
1)运维成本,包括监控告警是否完善、是否有备份恢复机制、升级和迁移的成本是否高、社区是否稳定、是否方便调优、排障是否简易等;
2)稳定性,包括是否支持数据多副本、服务高可用、多写多活等;
3)性能,包括延迟、QPS、TPS,以及是否支持更高级的分级存储功能等;
4)扩展性,如果业务的需求不确定,是否容易横向扩展和纵向扩容;
5)安全,需要符合审计要求,不容易出现 SQL 注入或拖库情况。
AntDB数据库,一款在通信行业得到充分使用的业内领先的国产数据库,帮助客户进行OLTP 与OLAP一站式处理的数据库产品,具备丰富配套工具和完整服务体系。依托多年的技术研发成果与成熟交付经验,提供面向多行业、多场景的一站式数据库产品、工具及服务的综合解决方案。AntDB 在全国 24 个省市的 200 多个项目上成功落地,支撑全国 10 亿电信用户的通话、上网、缴费、账单等海量业务数据交互。

阅读全文

与如何选海量数据相关的资料

热点内容
怎么数据加载失败了 浏览:289
如何代理百度竞价秒收 浏览:382
泉州万祥物流是什么产品 浏览:797
免费交易平台哪个好 浏览:40
机务技术员就业情况如何 浏览:391
山海经这游戏怎么代理 浏览:929
眼部祛斑产品有哪些 浏览:832
合肥红酒代理商有哪些 浏览:847
湖人交易动向如何 浏览:16
程序员熬夜加班到多少点 浏览:419
新上一个功能需采集哪些数据 浏览:702
招聘基础信息怎么填 浏览:981
刘总现在在哪个市场 浏览:429
公交车驱动程序怎么取名 浏览:268
被抽样调查的原始数据叫什么 浏览:868
人保代驾如何使用代理 浏览:667
怎么引用表格中变动的数据 浏览:153
如何评选贫困户程序 浏览:234
房子按揭期间怎么变更信息 浏览:807
如何写社保方面的信息 浏览:108