简介
《市场调查》(第三版)编写者在参考了大量参考文献的基础上,结合自己的教学、科研、调查项目实践经验,对市场调查方法与技术教材编写进行了新的尝试,主要针对大学本科学生的需求来设计讨论的问题及其深度,可以作为高等院校统计专业、市场营销专业相关课程的教学用书,也可作为各种类型专业培训教材,同时也是各种层次、各种类型经营管理人员的参考读物。组织结构遵循了市场调查过程的逻辑,用12个章节展示了市场调查实用而有趣的画面。《市场调查》(第三版)更新了关于“网红现象的问卷调查”以及大数据在市场调查中的应用等内容,更贴近当今社会热点,也更符合当下市场调查教学和研究的需要。
目录
*章 总论
*节 市场调查的定义、功能与作用
第二节 市场调查的分类和内容
第三节 市场调查的历史和未来
第四节 市场调查中的道德问题
本章小结
思考与练习
第二章 调查方案的设计
*节 市场调查信息及其用户的相关知识
第二节 调查方案设计的含义和内容
第三节 调查方案的可行性研究
本章小结
思考与练习
第三章 已有资料的收集
*节 已有资料的性质
第二节 已有资料的来源
第三节 已有资料的收集与评估
本章小结
思考与练习
第四章 原始资料的收集方法——定性资料的收集
*节 定性调查概述
第二节 焦点小组访谈法
第三节 深层访谈法
第四节 德尔菲法
第五节 投射法
本章小结
思考与练习
第五章 原始资料的收集方法——定量资料的收集
*节 询问法
第二节 观察法
第三节 实验法
本章小结
思考与练习
第六章 量表及其设计
*节 测量的基本概念
第二节 量表的基本概念
第三节 顺序量表设计
第四节 等距量表设计
第五节 等比量表设计
第六节 态度测量
本章小结
思考与练习
第七章 问卷设计
*节 问卷的基本问题
第二节 问题的设计
第三节 选项的设计
第四节 编码的设计
本章小结
思考与练习
附录
第八章 抽样设计思路与方法
*节 抽样设计
第二节 随机抽样
第三节 非随机抽样
第四节 随机抽样的调查误差
第五节 抽样推断方法与样本容量的确定
本章小结
思考与练习
第九章 市场调查的组织与实施
*节 市场调查的团队组织
第二节 调查员及其培训
第三节 调查前的准备
第四节 调查的实施与控制
第五节 市场调查过程的沟通与管理
本章小结
思考与练习
第十章 数据处理
*节 数据处理及前期准备
第二节 一般数据处理流程
第三节 其他数据处理流程简介
第四节 与数据处理相关的新技术
本章小结
思考与练习
第十一章 数据分析方法
*节 统计分析方法I——描述统计
第二节 统计分析方法II——推断统计
第三节 统计分析方法III——多元统计分析
本章小结
思考与练习
第十二章 市场调查报告
*节 市场调查报告的写作原则及其分类
第二节 书面调查报告
第三节 市场调查口头报告
本章小结
思考与练习
参考文献
【书摘与插画】
当下,“大数据”的火热对传统统计调查带来巨大冲击和挑战。与传统调查数据相似,大数据确实可以辅助统计决策;与相对易于控制数据质量的传统统计调查数据相比,大数据技术是否可以从看似杂乱的、数量巨大的、类型多样的信息中获取有用的数据,目前尚无十分成熟的应对技术。大数据技术中有效数据获取与整理,与传统统计调查中的数据处理有较大相似之处。
(一)大数据成为研究热点
随着信息数据化步伐的加快,从工业上的生产制造到生活中的电子商务;从企业的信息管理系统到政府部门的电子政务;从社交网络上的媒体信息到在线视频图像资料,每天都伴随着大量的数据产生。据不完全统计,淘宝网每日新增的交易数据达到10TB;eBay分析平台每日处理的数据量高达100PB;Facebook的10亿活跃用户,每天生成的照片冲洗出来堆起来的高度相当于80个埃菲尔铁塔;YouTube网站每分钟大约会有60 h的视频数据上传。据IDC预测,至2020年全球以电子形式存储的数据量将达32 ZB,如果将其刻录在DVD盘片后堆叠起来,可从地球到月球垒几十个来回!
大数据(big data)是继云计算和物联网之后IT产业的又一次颠覆性技术变革,是经济和技术发展的必然结果。维基百科、数据科学家以及一些研究机构和相关厂商均提出过大数据的概念,然而截至目前并未形成统一的定义。而大数据所蕴涵的4V特征,即体量大(volume)、模式多(variety)、速度快(veIocity)、价值密度低(vaIue),增加了数据管理和信息提取的困难和复杂性,导致常规的数据处理方式已经无法适应需求,急需数据处理模式的转变。因此,有关大数据的存储和管理成为时下研究的热点。
(二)大数据处理系统的急速变换
网络大数据的复杂性、不确定性、涌现性给当前IT系统的架构、计算能力带来了挑战和机遇,催生了大数据处理框架。围绕着这些计算框架,诞生了各种大数据处理系统。例如用于批量大数据处理的Google GFS与Map Reduce,Nokia的Disco、面向流式处理的Google DremelL,Microsoft的Dryad,Twitter的Storm,Yahoo的S4等,学术界和开源社区也围绕着面向批量大数据处理的Apache Hadoop、基于Hadoop的更具实时性的Impala、伯克利AMP Lab的基于RDD的、面向工作集迭代应用的Spark展开了深入研究,国内的互联网巨头百度、阿里、腾讯等也在Hadoop等系统上部署了应用。各类系统面向不同的应用,设计有针对性的计算模型、调度算法、数据结构,从而不断演进。如Dremel,Storm等流式处理模型,相对于Hadoop,更适合海量流数据的即时查询;而Spark则针对Map Reduce模型不擅长的迭代处理和交互应用,提出了RDD内存数据集及相关迭代模型;Hadoop自身的计算框架由原本单一的Map Reduce演化出了基于有向无环图(directed acyclic graph,DAG)的更为灵活的Tez;Hadoop自身的调度系统也从单一的全局任务调度发展到了新一代的Yarn,分离了Job Tracker的资源管理与任务调度功能。
信息时代,分分秒秒出现大量的数字、文字、图像等各类信息。这些信息作为大数据的载体,只有通过适当的手段才可能提炼出有效的信息,这依赖于大数据数据处理系统相关技术的不断进步。
本章小结
1. 本章明确了数据处理的一般问题,包括数据处理的概念、意义和处理数据前的准备。数据处理就是根据调查研究的目的与任务,对搜集到的各种数据进行审核与汇总,使之条理化、系统化,以符合数据分析的需要。通过数据处理,有利于发现工作中的不足,也有利于提高信息资料的价值。
为了保证数据处理工作的优质高效,需要做好数据处理的前期准备工作。前期准备主要有三个方面,一是需要做好人员准备,二是需要健全的规章制度,三是需要科学的工作标准。
2. 数据处理的流程包括一般数据流程、其它数据流程以及不同数据流程的选择。一般数据处理流程是*细致*完整的数据处理流程,适用于复杂资料的大型调查。
3. 一般数据处理流程包括六个环节:(1)数据审核,(2)后编码,(3)数据录入,(4)数据文档转换,(5)数据库清理,(6)数据库储存。
4. 其他常用的数据处理流程包括四种:(1)边缘编码式数据处理流程,它省去了编码表的编制,但适用面窄;(2)标记输入式数据处理流程,它省去了编码的人工输入,但技术不成熟;(3)应答者标记输入式数据处理流程,它省去了编码和人工输入,但适用面窄且受专门技术影响大;(4)直接计算机输入式数据处理流程,它省去了编码,数据审核与录入同时进行,只局限于有完全预先编码的封闭式题目。
5. 数据处理流程的选择,除了考虑各流程的优缺点,也要考虑是否拥有计算机、光感扫描器等硬件;也要考虑调研时间与成本的限制,以及调研涉及数据信息的复杂程度。
6. *后,本章简要阐述了与数据处理相关的新技术,如数据库、数据库系统、数据挖掘、联机分析、统计信息系统、大数据处理系统等。
光盘服务联系方式: 020-38250260 客服QQ:4006604884
云图客服:
用户发送的提问,这种方式就需要有位在线客服来回答用户的问题,这种 就属于对话式的,问题是这种提问是否需要用户登录才能提问