Hadoop系统的发展解决了企业大数据的存储和处理能力的问题。但是系统本身并不能对数据形成分析和理解。如何从海量的数据中发现有用的知识并为企业发展提供帮助和指导是数据挖掘技术的研究目标。
简单来说数据挖掘就是利用人工智能、机器学习、统计学、模式识别等技术搜索引擎优化数据挖掘就是利用人工智能、机器学习、统计学、模式识别等技术从大量的、含有噪声的实际数据中提取其中隐含的、事先不为人所知的有效信息的过程。一方面数据挖掘所处理的数据对象是真实的、包含噪音因此是一门实际应用科学;另一方面其目的在于发现人们感兴趣的知识与市场逻辑存在着紧密联系。大数据时代的数据挖掘技术并不是一门新的学科其基本原理与传统数据挖掘并无本质区别。只是由于所需要处理的数据规模庞大、且价值密度低在处理方法和逻辑上被赋予了新的含义。比如传统数据挖掘由于数据量较小为真实反应实际情况需要构建相对复杂的模型;而大数据时代提供了海量的数据可能使用相对简单的模型便可以满足需求。
首先是商业理解也就是对数据挖掘问题本身的定义。所谓做正确的事比正确的做事更重要在着手做数据模型之前一定要花时间去理解需求搜索引擎抓取在着手做数据模型之前一定要花时间去理解需求弄清楚真正要解决的问题是什么根据需求制定工作方案。这个过程需要比较多的沟通和市场调研了解问题提出的商业逻辑。在沟通交流过程中为了便于对沟通效果进行把控可以采取思维导图等工具对的结果进行记录、整理。
明确需求后接下来就是要收集并整理数据建模所需要的数据。这个过程是资源调配的过程需要与企业的相关部门明确可以使用的数据维度有哪些哪些维度与建模任务相关性比价高。这个过程通常需要一定的专业背景知识。
好文分享
指的是对用于挖掘数据的预处理和统计分析过程有时也称为ETL过程。主要包括数据的抽取、清洗、转换和加载是整个数据挖掘过程最耗时的过程也是最为关键的一环。数据处理方法是否得当对数据中所体现出来的业务特点理解是否到位将直接影响到后面模型的选择及模型的效果甚至决定整个数据挖掘工作能否完成预定目标。该过程需要有一定的统计学理论和实际经验并具备一定的项目经验。模型建立是是整个数据挖掘流程中最为关键的一步需要在数据理解的基础上选择并实现相关的挖掘算法并对算法进行反复调试、实验。通常模型建立和数据理解是相互影响搜索引擎抓取并对算法进行反复调试、实验。通常模型建立和数据理解是相互影响经常需要经过反复的尝试、磨合多次迭代后方可训练处真正有效的模型。
模型评估是在数据挖掘工作基本结束的时候对最终模型效果进行评测的过程。在挖掘算法初期需要制定好最终模型的评测方法、相关指标等在这个过程中对这些评测指标进行量化判断最终模型是否可以达到预期目标。通常模型的评估人员和模型的构建人员不是同一批人以保证模型评估的客观、公正性。
最终当挖掘得到的模型通过评测后可以安排上线、正式进入商业化流程中。为了避免由于建模数据与线上真实情况不一致而导致模型失效的状况出现通常在应用过程中采取A/B测试的步骤对模型在实际线上环境中的运行状况进行观察跟踪确保模型在线上环境中符合预期。
了解了数据挖掘的基本流程常用的数据挖掘任务和所用到的挖掘大数据技术有哪些?总的来说数据挖掘任务可以概括为描述性预测性两大类。描述性任务主要是对现有数据的理解和整理从中发现其中的一般特性是对历史知识的总结和归纳。预测性任务则是利用当前数据对事务的未来发展趋势进行推断是知识的外延和推理过程。
在此我向大家推荐一个大数据开发交流圈:658558542 里面整理了一大份学习资料全都是些干货包括大数据技术入门大数据离线处理、数据实时处理、Hadoop 、Spark、Flink、推荐系统算法以及源码解析等送给每一位大数据小伙伴让自学更轻松。这里不止是小白聚集地还有大牛在线解答!欢迎初学和进阶中的小伙伴一起进群学习交流共同进步!
比较常见的数据挖掘技术有如下几类:
关联规则分析:
包括频繁模式挖掘、序列模式挖掘用于发现能够描述数据项之间关系的规则。典型应用是用户购物篮分析发现用户经常一起购买的商品集合如购买啤酒的人经常也会顺手购买小孩尿布;及用户购买某商品之后后续最有可能购买的其他商品如用户购买自行车两个月左右后通常会再购买打气筒。前者可以用来指导商场的商品陈列将用户最可能在一起购买的商品摆列在一起。后者则可以用来对用户的未来消费行为进行推荐引导。