大数据

淘宝双11数据分析与预测课程案例—步骤四:利用Spark预测回头客行为(python版)

《淘宝双11数据分析与预测课程案例—步骤四:利用Spark预测回头客行为(python版)》

开发团队:厦门大学数据库实验室 联系人:林子雨老师ziyulin@xmu.edu.cn

版权声明:版权归厦门大学数据库实验室所有,请勿用于商业用途;未经授权,其他网站请勿转载

本教程介绍大数据课程实验案例“淘宝双11数据分析与预测”的第五个步骤,利用Spark预测回头客。在实践本步骤之前,请先完成该实验案例的第一个步骤——本地数据集上传到数据仓库Hive,第二个步骤——Hive数据分析,和第三个步骤——将数据从Hive导入到MySQL,这里假设你已经完成了前面的这四个步骤。
继续阅读

采用Node.js+Express+Jade实现用户注册登录功能

Node.js是一个JavaScript运行环境,发布于2009年5月,由Ryan Dahl开发,实质是对Chrome V8引擎进行了封装。V8引擎执行Javascript的速度非常快,性能非常好。 Node.js是一个基于Chrome JavaScript运行时建立的平台,用于方便地搭建响应速度快、易于扩展的网络应用。Node.js使用事件驱动、非阻塞I/O模型,具备轻量和高效的特点,非常适合在分布式设备上运行数据密集型的实时应用。请参考另一篇博客完成Node.js的安装。这里假设已经完成Node.js的安装。
继续阅读

使用Node.js连接MySQL数据库

假设已经在MySQL数据库中创建了一个名称为“test”的数据库,这个数据库中有一个student表,这个表有sno和sname两个字段。现在要创建Node.js应用服务器,查询MySQL数据库student表的信息并显示到网页上。
继续阅读

Flume_Kafka_SparkStreaming实现词频统计

任务描述

配置Kafka和Flume,把Flume Source类别设置为netcat,绑定到localhost的33333端口,通过“telnet localhost 33333”命令向Flume Source发送消息,然后,让Flume把消息发送给Kafka,并让Kafa发送消息到Spark Streaming,Spark Streaming组件收到各种单词消息后,对单词进行词频统计,在屏幕上打印出每个单词出现了几次。
继续阅读

在Windows系统中安装Docker

本教程版权归厦门大学数据库实验室所有,由厦门大学林子雨老师亲自撰写,转载请注明出处,请勿用于商业用途。
本教程介绍如何在Windows系统中安装Docker。
继续阅读

在ECS实例的Ubuntu系统中安装MySQL5.7

返回《在阿里云中搭建大数据实验环境》首页
提示:本教程是一个系列文章,请务必按照本教程首页中给出的各个步骤列表,按照先后顺序一步步进行操作,本博客假设你已经顺利完成了之前的操作步骤。
MySQL是非常流行的关系数据库,在企业中得到了广泛的应用,大数据应用中,会涉及到Spark和MySQL之间的交互,以及Hadoop和MySQL之间的交互。本博客介绍如何在ECS实例的Ubuntu系统中安装MySQL。
继续阅读

在ECS实例的Ubuntu系统中安装HBase

返回《在阿里云中搭建大数据实验环境》首页
提示:本教程是一个系列文章,请务必按照本教程首页中给出的各个步骤列表,按照先后顺序一步步进行操作,本博客假设你已经顺利完成了之前的操作步骤。
HBase是Hadoop生态系统中的一个组件,是一种分布式数据库,可以支持数百万列、超过10亿行的数据的存储。本博客介绍如何在ECS实例的Ubuntu系统中安装HBase。
继续阅读

在ECS实例的Ubuntu系统中安装编译打包工具Maven

返回《在阿里云中搭建大数据实验环境》首页
提示:本教程是一个系列文章,请务必按照本教程首页中给出的各个步骤列表,按照先后顺序一步步进行操作,本博客假设你已经顺利完成了之前的操作步骤。
在对使用 Scala 编写的Spark程序进行编译打包时,可以使用 sbt 工具进行编译打包,也可以使用Maven工具进行编译打包。本文介绍如何使用 Maven工具进行编译打包,另一篇博客介绍如何使用sbt工具进行编译打包。这里会通过一个简单的应用程序 SimpleApp 来演示如何通过 Spark API 编写一个独立应用程序,并且在Shell环境中使用Maven进行编译打包。
继续阅读

在ECS实例的Ubuntu系统中安装编译打包工具sbt

返回《在阿里云中搭建大数据实验环境》首页
提示:本教程是一个系列文章,请务必按照本教程首页中给出的各个步骤列表,按照先后顺序一步步进行操作,本博客假设你已经顺利完成了之前的操作步骤。
在对使用 Scala 编写的Spark程序进行编译打包时,可以使用 sbt 工具进行编译打包,也可以使用Maven工具进行编译打包。本文介绍如何使用 sbt 工具进行编译打包,下一篇博客会介绍如何使用Maven工具进行编译打包。这里会通过一个简单的应用程序 SimpleApp 来演示如何通过 Spark API 编写一个独立应用程序,并且在Shell环境中使用sbt进行编译打包。
继续阅读