本文是《Spark大数据处理》系列的第四篇,其他三篇:Spark介绍、 Saprk SQL 和 Spark Streaming 。
最近几年,机器学习、预测分析和数据科学主题得到了广泛的关注。Spark的机器学习库(Spark MLlib),包括各种机器学习算法:协同过滤算法、聚类算法、分类算法和其他算法。
在前面的《Spark大数据处理》系列文章,介绍Apache Spark框架,介绍如何使用Spark SQL库的SQL接口去访问数据,使用Spark Streaming进行实时流式数据处理和分析。
在本篇文章,作者将讨论机器学习概念以及如何使用Spark MLlib来进行预测分析。后面将会使用一个例子展示Spark MLlib在机器学习领域的强悍。
Spark机器学习API包含两个package:spark.mllib 和spark.ml。
spark.mllib 包含基于弹性数据集(RDD)的原始Spark机器学习API。它提供的机器学习技术有:相关性、分类和回归、协同过滤、聚类和数据降维。
spark.ml提供建立在 DataFrame 的机器学习API,DataFrame是Spark SQL的核心部分。这个包提供开发和管理机器学习管道的功能,可以用来进行特征提取、转换、选择器和机器学习算法,比如分类和回归和聚类。
本篇文章聚焦在Spark MLlib上,并讨论各个机器学习算法。下篇文章将讲述Spark ML以及如何创建和管理数据管道。
机器学习是从已经存在的数据进行学习来对将来进行数据预测,它是基于输入数据集创建模型做数据驱动决策。
数据科学是从海里数据集(结构化和非结构化数据)中抽取知识,为商业团队提供数据洞察以及影响商业决策和路线图。数据科学家的地位比以前用传统数值方法解决问题的人要重要。
以下是几类机器学习模型:
下面简单的了解下各机器学习模型,并进行比较:
下面给各个机器学习模型举个列子:
开发机器学习项目时,数据预处理、清洗和分析的工作是非常重要的,与解决业务问题的实际的学习模型和算法一样重要。典型的机器学习解决方案的一般步骤:
图1
原始数据如果不能清洗或者预处理,则会造成最终的结果不准确或者不可用,甚至丢失重要的细节。
训练数据的质量对最终的预测结果非常重要,如果训练数据不够随机,得出的结果模型不精确;如果数据量太小,机器学习出的模型也不准确。
使用案例:
业务使用案例分布于各个领域,包括个性化推荐引擎( 食品推荐引擎 ),数据预测分析( 股价预测 或者 预测航班延迟 ),广告,异常监测,图像和视频模型识别,以及其他各类人工智能。
接着来看两个比较流行的机器学习应用:个性化推荐引擎和异常监测。
个性化推荐引擎使用商品属性和用户行为来进行预测。推荐引擎一般有两种算法实现:基于内容过滤和协同过滤。
协调过滤的解决方案比其他算法要好,Spark MLlib实现了 ALS协同过滤算法 。Spark MLlib的协同过滤有两种形式: 显式反馈和隐试反馈 。显式反馈是基于用户购买的商品(比如,电影),显式反馈虽好,但很多情况下会出现数据倾斜;隐试反馈是基于用户的行为数据,比如,浏览、点击、喜欢等行为。隐试反馈现在大规模应用在工业上进行数据预测分析,因为其很容易收集各类数据。
另外有基于模型的方法实现推荐引擎,这里暂且略过。
异常监测是机器学习中另外一个应用非常广泛的技术,因为其可以快速和准确地解决金融行业的棘手问题。金融服务业需要在几百毫秒内判断出一笔在线交易是否非法。神经网络技术被用来进行销售点的异常监测。比如像PayPal等公司使用不同的机器学习算法(比如,线性回归,神经网络和深度学习)来进行风险管理。
Spark MLlib库提供给了几个实现的算法,比如,线性SVM、逻辑回归、决策树和贝叶斯算法。另外,一些集成模型,比如随机森林和gradient-boosting树。那么现在开始我们的使用Apache Spark框架进行机器学习之旅。
Spark MLlib实现的机器学习库使得机器学习模型可扩展和易使用,包括分类算法、回归算法、聚类算法、协同过滤算法、降维算法,并提供了相应的API。除了这些算法外,Spark MLlib还提供了各种数据处理功能和数据分析工具为大家使用:
图2 展示Spark生态Spark MLlib API支持Scala,Java和Python编程。
使用Spark MLlib实现推荐引擎。推荐引擎最佳实践是基于已知用户的商品行为而去预测用户可能感兴趣的未知商品。推荐引擎基于已知数据(也即,训练数据)训练出预测模型。然后利用训练好的预测模型来预测。最佳电影推荐引擎的实现有下面几步:
如果你想对输出的数据做进一步分析,你可以把预测的结果存储到Cassandra或者MongoDB等数据库。
这里采用Java开发Spark MLlib程序,并在stand-alone模型下执行。使用到的MLlib Java类:org.apache.spark.mllib.recommendation。
图3 Spark机器学习的例子程序架构
程序执行:
开发好的程序进行打包,设置环境变量:JDK (JAVA_HOME), Maven (MAVEN_HOME)和Spark (SPARK_HOME)。
在Windows环境中:
set JAVA_HOME=[JDK_INSTALL_DIRECTORY] set PATH=%PATH%;%JAVA_HOME%/bin set MAVEN_HOME=[MAVEN_INSTALL_DIRECTORY] set PATH=%PATH%;%MAVEN_HOME%/bin set SPARK_HOME=[SPARK_INSTALL_DIRECTORY] set PATH=%PATH%;%SPARK_HOME%/bin cd c:/dev/projects/spark-mllib-sample-app mvn clean install mvn eclipse:clean eclipse:eclipse
在Linux或者MAC系统中;
export JAVA_HOME=[JDK_INSTALL_DIRECTORY] export PATH=$PATH:$JAVA_HOME/bin export MAVEN_HOME=[MAVEN_INSTALL_DIRECTORY] export PATH=$PATH:$MAVEN_HOME/bin export SPARK_HOME=[SPARK_INSTALL_DIRECTORY] export PATH=$PATH:$SPARK_HOME/bin cd /Users/USER_NAME/spark-mllib-sample-app mvn clean install mvn eclipse:clean eclipse:eclipse
运行Spark程序,命令如下:在Windows环境下:
%SPARK_HOME%/bin/spark-submit --class "org.apache.spark.examples.mllib.JavaRecommendationExample" --master local[*] target/spark-mllib-sample-1.0.jar
在Linux或者MAC环境下:
$SPARK_HOME/bin/spark-submit --class "org.apache.spark.examples.mllib.JavaRecommendationExample" --master local[*] target/spark-mllib-sample-1.0.jar
使用Spark的web控制台可以进行监控程序运行状态。这里只给出程序运行的有向无环图(DAG):
图4 DAG的可视化
Spark MLlib是Spark实现的机器学习库中的一种,经常用来做业务数据的预测分析,比如个性化推荐引擎和异常监测系统。
作者信息:侠天,专注于大数据、机器学习和数学相关的内容,并有个人公众号:bigdata_ny分享相关技术文章。
查看英文原文: Big Data Processing with Apache Spark - Part 4: Spark Machine Learning