太原兄弟连IT教育
强力师资,带你轻松玩转大数据
快速咨询兄弟连大数据全栈课程 让你破茧成蝶
数据量大 数据种类多 要求实时性强 主导气质无法掩盖
同时推动大数据Hadoop
引领大数据行业风潮
网站后台维护
大型项目必选开发语言
大数据处理
服务器开发
金融机构大数据应用
智能家居家电
银行管理系统
通用技术综合案例
搜狗搜索日志分析系统
新浪微博数据分析系统
网络流量流向统计项目
网上商城数据统计分析平台
覆盖大数据行业主流技术岗位,课程半年升级一次,紧跟市场与企业步伐
1.JavaSE;2.MySQL;3.JDBC;4.Linux;5.shell;6.HTML;7.CSS;8.JavaScript;9.JSP;10.Servlet
1.大数据概论;2.Hadoop框架;3.HDFS分布式文件系统;4.MapReduce计算模型;5.全真实训项目
1.Hive数据仓库;2.Sqoop ETL工具;3.Azkaban工作流引擎;4.Ooize;5.Impala;6.全真实训项目
Zookeeper分布式协调系统、HBase分布式数据库、Redis数据库、Storm实时数据处理平台
Scala、Spark、RDD、Streaming、 Mahout、MLlib、GraphX、ElasticSearch、Lucene
从搜狗产生的日志数据中能提取到有用的数据,分析每个用户行为,从而做出有利的决定。
在hadoop集群上,处理微博产生的数据得到所需的数据,对数据进行处理,挖掘用户的潜在价值
采集现网流量流向信息,根据这些原始信息检测账号是否存在异常,超过一定阈值则触发报警机制。
基于京东商城数据统计分析平台,进行离线计算和实时计算业务模块的开发,实现3个业务模块。
凝聚11年研发成果 浓缩成5个月实战课程 助力职场"薪"生涯
★ 来自主流高校和一线企业的骨灰级大咖授课。
★ 根据企业需求设计课程,并且定期更新,引入最新技术。
★ 配备业内先进开发服务器,可实时感受分布式开发和云计算等。
★ 16小时老师全程陪伴,不怕学不会。
★ 线上线下结合,可以无缝衔接。
★ 学员管理以人为本,不忘初心,致力培养眼界高、技术牛、做人好的职场员工。
课程与脱产班相同
面向零基础
的大数据小白
面向应有一定基础
他们将十余年实战经验倾囊相授,他们在兄弟连为你的职业发展保驾护航
毕业于北京大学,12年以上JAVA企业项目架构和开发经验。曾在二炮科技处、UPS科技、日本UCI科技等多家知名企业担任过项目经理和研发总监。
精通Java、C、C 等主流开发语言,5年以上开发经验,非常丰富的IT从业经验和教育心得,兄弟连金牌大数据讲师,曾担任达内课程总监级讲师。
原普开数据大数据架构师兼教学总监,新奥集团公司云数据平台项目首席架构师,京东万象大数据平台缔造人之一,二六三网络通信反垃圾邮件系统平台项目经理
学位:北航软件工程硕士
教学经验:16年软件架构开发经验
过往任职经历:
曾就职于东软、DNS等知名企业,新东方、达内前教学总监
特长:
精通JAVAEE/JAVA框架/oracle数据库,大数据大咖,知名企业培训大咖。
“我们不仅仅是老师,我们是学员的梦想守护者与职场引路人。”
兄弟连教育成立于2006年,现已是第13个年头,一直以来专注于IT技术培训,是国内专业的PHP/ LAMP技术专业培训学校。现已开设PHP、UI/UE、HTML5、Java/大数据、Linux/云计算、Python等众多学科,累计培养数万名学员。兄弟连已分别在北京、上海、广州、成都、杭州、南京、南宁、深圳、天津等地设立校区,每年有多名IT爱好者及从业人员受益于兄弟连的职业培训。
兄弟连,这条路虽历尽艰辛,但我们痴心不改。
当前从医疗健康、金融、零售、广告、到交通、教育、农业等领域,“大数据”与“智能化”已经渗透到几乎每一个行业及业务职能,大数据从“概念”走向了“价值”,未来人们的.....
数据结构、关系型数据库、linux系统操作 hadoop离线分析、Storm实时计算、spark内存计算 大数据的价值体现在以下几.....
大数据产业已进入发展的“快车道”,急需大量优秀的大数据人才作为后盾。能够在大数据行业崛起的初期进入到这个行业当中来,才有机会成为时代的弄潮儿。正是了解了大数据良.....
首先、北京是各类新事物的爆发地,各种新兴的事物都在北京得以绽放,大数据也不例外,如今,北京是大数据发展最为迅速的一座城市; 其次、北京的师资力.....
细分客户群是向客户提供个性化体验的关键。它可以提供关于客户行为、习惯与偏好的相关信息,帮助企业提供量身定制的营销活动从而改善客户体验。在业界人们往往把他吹嘘成提高 细分客户群是向客户提供个性化体验的关键。它可以提供关于客户行为、习惯与偏好的相关信息,帮助企业提供量身定制的营销活动从而改善客户体验。在业界人们往往把他吹嘘成提高收入的万能药,但实际上这个操作并不复杂,本文兄弟连大数据就将带你用简单的代码实现这一项目。我们需要创建什么?通过使用消费交易数据,我们将会通过创建一个2 x 2的有价值属性的矩阵来得到4个客户群。每一个客户群将与其他群体有两大区别,即当前客户价值和潜在客户价值。我们将使用什么技术?我们将使用RFM模型从消费交易数据中创建所需变量。RFM模型代表:o 最近消费(Recency):他们最近一次消费是什么时候?o 消费频率(Frequency):他们多久消费一次、一次消费多久?o 消费金额(Monetary):他们消费了多少?该模型通常被用于在三个属性交叉处寻找高价值客户。但在本例中,我们将仅适用R(最近消费)与M(消费金额)来创建二维矩阵。我们使用什么数据?我们将使用Tableau提供的消费数据样本——它也被称为“Global Superstore”。它通常被用于预测与时间序列分析。该数据集包含超过1500位不同客户4年的消费数据。既然我们做的是行为细分而非人口细分,我们将通过仅选择B2C领域的消费者以及美国区域的消费数据来去除潜在的人口偏差。我们采取什么方法?第0步:导入、筛选、清理、合并消费者层级数据。第1步:为每一位消费者创建RFM变量。第2步:为实现自动细分,我们将使用R与M变量的80%分位数;我们其实还可以用k均值聚类(K-mean Clustering)或者利用商业背景知识来进行群体区分——比如,全球超市企业用户将活跃客户定义为最近一次订单在100天内的客户。第3步:计算RM分数,并对客户进行排序。第4步:可视化价值矩阵,并对关键指标进行进一步分析。Python实现:第0步:导入、筛选、清理、合并消费者层级数据。import matplotlib as pltimport numpy as np%matplotlib inline import warningswarnings.filterwarnings('ignore')import pandas as pdurl = 'https://github.com/tristanga/Data-Analysis/raw/master/Global%20Superstore.xls'df = pd.read_excel(url)df = df[(df.Segment == 'Consumer') & (df.Country == 'United States')]df.head()第1步:为每一位消费者创建RFM变量。df_RFM = df.groupby('Customer ID').agg({'Order Date': lambda y: (df['Order Date'].max().date() - y.max().date()).days, 'Order ID': lambda y: len(y.unique()), 'Sales': lambda y: round(y.sum(),2)})df_RFM.columns = ['Recency', 'Frequency', 'Monetary']df_RFM = df_RFM.sort_values('Monetary', ascending=False)df_RFM.head()第2步:使用R与M变量的80%分位数实现自动细分。# We will use the 80% quantile for each featurequantiles = df_RFM.quantile(q=[0.8])print(quantiles)df_RFM['R']=np.where(df_RFM['Recency']<=int(quantiles.Recency.values), 2, 1)df_RFM['F']=np.where(df_RFM['Frequency']>=int(quantiles.Frequency.values), 2, 1)df_RFM['M']=np.where(df_RFM['Monetary']>=int(quantiles.Monetary.values), 2, 1)df_RFM.head()第3步:计算RM分数,并对客户进行排序。# To do the 2 x 2 matrix we will only use Recency & Monetarydf_RFM['RMScore'] = df_RFM.M.map(str)+df_RFM.R.map(str)df_RFM = df_RFM.reset_index()df_RFM_SUM = df_RFM.groupby('RMScore').agg({'Customer ID': lambda y: len(y.unique()), 'Frequency': lambda y: round(y.mean(),0), 'Recency': lambda y: round(y.mean(),0), 'R': lambda y: round(y.mean(),0), 'M': lambda y: round(y.mean(),0), 'Monetary': lambda y: round(y.mean(),0)})df_RFM_SUM = df_RFM_SUM.sort_values('RMScore', ascending=False)df_RFM_SUM.head()第4步:可视化价值矩阵,并对关键指标进行进一步分析。# 1) Average Monetary Matrixdf_RFM_M = df_RFM_SUM.pivot(index='M', columns='R', values='Monetary')df_RFM_M= df_RFM_M.reset_index().sort_values(['M'], ascending = False).set_index(['M'])df_RFM_M# 2) Number of Customer Matrixdf_RFM_C = df_RFM_SUM.pivot(index='M', columns='R', values='Customer ID')df_RFM_C= df_RFM_C.reset_index().sort_values(['M'], ascending = False).set_index(['M'])df_RFM_C# 3) Recency Matrix最终矩阵(左上:流失客户;右上:明星客户;左下:次要客户;右下:新客户)一些简单的销售与营销策略的启发性实例“流失客户”分类中的客户人数不是很多,并且从他们身上得到的的平均收入高于“明星客户”分类。既然人数不多,从客户层面与业务部门合作对这些客户进行分析研究并制定一个留住他们的策略应该不难:给他们打电话或者直接见面,说不定就可以把他们挪到“明星客户”分类(例如,高参与度客户)。“次要客户”分类的平均最近消费时间非常久远(超过1年,而参与度较高的客户平均来说该数据只有60至70天)。发起一些发放优惠券一类的营销活动可能能够带来新的消费,并帮助把该类客户挪至“新客户”分类(例如,高参与度客户)。简单策略实例(上:打电话;下:电邮营销)在Github上可以找到本Jupyter Notebookhttps://github.com/tristanga/Data-Analysis/blob/master/Notebooks/Automatic Customer Segmentation with RFM %28Python%29.ipynb
同意《隐私政策》并允许推荐给更多服务商为您提供服务!