當前位置:首頁 » 編程語言 » sql留存率面試題
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

sql留存率面試題

發布時間: 2023-03-11 13:58:09

㈠ 如何用sql分析電商用戶行為數據(案例)

        

本文以「淘寶用戶行為數據集」的分析全過程為例,展示數據分析的全過程

——使用工具:MySQL,Excel,Navicat,PowerBI

——分析類型:描述分析,診斷分析

——分析方法:漏斗分析,用戶路徑分析,RFM用戶價值分析,活躍/存留分析,帕累托分析,假設驗證分析。

(考慮到閱讀體驗文章中只放了SQL截圖,如需PDF版本,再公眾號後台回復「用戶行為分析」領取)

(目錄如下)

       

1.分析流程和方法

當沒有清晰的數據看板時我們需要先清洗雜亂的數據,基於分析模型做可視化,搭建描述性的數據看板。

然後基於描述性的數據挖掘問題,提出假設做優化,或者基於用戶特徵數據進行預測分析找規律,基於規律設計策略。簡單來說:

——描述性分析就是:「畫地圖」

——診斷性分析就是:「找問題」

——預測性分析就是 :「找規律」


在數據分析中有兩個典型的場景:

一種是有數據,沒有問題:需要先整體分析數據,然後再根據初步的描述分析,挖掘問題做診斷性分析,提出假設,設計策略解決問題。

 

另一種是已經發現了問題,或者已經有了假設,這種做數據分析更偏向於驗證假設。

 

2.淘寶用戶行為分析

本次是對「淘寶用戶行為數據集」進行分析,在分析之前我們並不知道有什麼問題,所以需要先進行描述性分析,分析數據挖掘問題。

我們首先來看下這個數據集的元數據:

       

根據以上數據欄位我們可以拿用戶行為為主軸從縱深方向提出一些問題,然後再從數據中找答案

       

縱向:

——這個數據集中用戶的日活躍和周活躍時間有什麼規律嗎?

——在當日活躍的用戶次日,三日,四日……還有多少活躍?

深向:

——用戶從瀏覽到購買的整體轉化率怎麼樣?

——用戶從瀏覽到購買的路徑是怎麼樣子的? 

——平台主要會給用戶推送什麼商品?

——用戶喜歡什麼類目?喜歡什麼商品? 

——怎麼判斷哪些是高價值用戶 ? 

 

 

下面是叮當整理的常用分析方法:      

我們可以給前面的問題匹配一下分析方法,便於後面的分析:


為了便於後面的數據分析,在分析之前我們需要先對做一下清洗

看元數據(欄位解釋,數據來源,數據類型,數據量……)初步發現問題為之後的處理做准備。

       

確定缺失值范圍,去除不需要欄位,填充缺失內容    

根據元數據格式和後續分析需要的格式對數據進行處理

  


去除重復值,異常值

——去除重復值:並把用戶ID,商品ID,時間戳設置為主鍵

——異常值處理:查詢並刪除2017年11月25日至2017年12月3日之外的數據

     

查詢並刪除小於2017-11-25的

——驗證數據:      


——分析思路:

——SQL提數:

       

       

——Excel可視化:

       

活躍曲線整體為上升狀態,同為周六日,12月2號,3號相比11月25日,26日活躍度更高。

用戶在周六周日相比其他時間更活躍(周六周日為休息日,用戶有更多時間)

      

一天內用戶活躍的最高峰期為21點(用戶在這個時間段空閑較多)

 

——分析思路:

——SQL提數:

列出每用戶每天及當天後面又活躍的日期,並創建「活躍時間間隔表」用於後面求次日存留,三日存留……

       

對「活躍時間間隔表視圖」引用進行分組統計,計算每日存留人數並創建視圖

對存留人數表進行計算,統計活躍用戶留存率

——Excel可視化:

       

——分析思路:

——SQL提數:

-把各種用戶行為分離出來並創建視圖方便後續查詢用戶行為數據

查詢整體數據漏斗

——Excel可視化:

       

用戶從瀏覽到購買整體轉化率2.3%,具體主要在哪個環節流失還需要再細分用戶路徑分析

 

——分析思路:

       

——SQL提數:

——PowerBI可視化:

       

用戶從瀏覽到購買的路徑主要有4條,路徑越長轉化率越底

路徑1:瀏覽→購買:轉化率1.45%

路徑2:瀏覽→加購物車→購買:轉化率0.33

路徑3:瀏覽→收藏→購買:轉化率0.11%

路徑4:瀏覽→收藏→加購物車→購買:轉化率0.03%

——分析思路:

——SQL提數:


——Excel可視化:

       

——描述性分析:

瀏覽量top100的商品瀏覽量呈階梯分布,越靠前的階梯之間的落差相對越大在這個階梯中的商品越少,越靠後商品瀏覽量階梯之間的落差相對越小,同階梯內的商品越多。

瀏覽量TOP100的商品所屬類目中,4756105,3607361,4357323三個類目瀏覽量遠超其他類目。

——分析思路:

——SQL提數:

查詢計算商品轉化率,升序排列,取前100個

       

——Excel可視化:

       

——描述性分析:

從商品看:有17款商品轉化率超過了1。

從類目看:這些商品所屬類目分布均勻,除965809,4801426,2735466,2640118,5063620,4789432,2945933這7個類目之外,其他類目都只有一個商品在轉化率TOP100的商品中。

——分析思路:

用戶價值分析常用的分析方式是RFM模型

       

本次分析中的R,F,M具體定義(僅用於演示分析方法,無實際業務參考價值):

 

——SQL取數與分析:

1)建立打分標准:先計算R,F的值,並排序,根據R,F值最大值和最小值得區間設計本次得打分標准

-查詢並計算R,F值創建視圖

       

-引用RF數值表,分別查詢R,F的最大值和最小值

       

       

-結合人工瀏覽的建立打分標准      

2)給R,F按價值打分

3)計算價值的平均值

       

4)用平均值和用戶分類規則表比較得出用戶分類   

     

——Excel可視化      

 

通過描述性分析得到可視化的數據後我們一般會先看一下是否符合業務常識

如果符合常識接下來我們會通過與行業平均數據和本產品的同比環比對比看是否正常,如果不正常就要找原因,設計解決方案,如果正常那就看是否有可以優化的地方。

       

我們首先來看一下這些描述性分析是否符合業務常識和指標是否正常:

       

1.活躍曲線整體為上升狀態,同為周六日,12月2號,3號相比11月25日,26日活躍度更高。

2.用戶在周六周日相比其他時間更活躍

3.一天內用戶活躍的最高峰期為21點

4.從2017年11月15日致2017年12月3日,活躍用戶新增38%

5.從2017年11月15日致2017年12月3日,活躍用戶次日留存增長18.67%,當日的活躍用戶留存也在快速增長,第七日留存比次日留存高18.56%。

6.用戶從瀏覽到購買整體轉化率2.3%

7.用戶從瀏覽到購買的路徑主要有4條,路徑越長轉化率越低。

8.瀏覽量top100的商品瀏覽量呈階梯分布,越靠前的階梯之間的落差相對越大在這個階梯中的商品越少,越靠後商品瀏覽量階梯之間的落差相對越小,同階梯內的商品越多。

9.瀏覽量TOP100的商品所屬類目中,4756105,3607361,4357323三個類目瀏覽量遠超其他類目。

10.從商品看:有17款商品轉化率超過了1。

11.從類目看:這些商品所屬類目分布均勻,除965809,4801426,2735466,2640118,5063620,4789432,2945933這7個類目之外,其他類目都只有一個商品在轉化率TOP100的商品中。

根據以上診斷分析我們梳理出了以下假設,做假設驗證。

       

 

假設1:這些商品中有高轉化率的爆款商品

       

 

對比瀏覽量TOP5的商品,發現這些商品轉化率在同一類目下並不高,假設不成立

 

假設2:4756105,3607361,4357323三個類目屬於高頻剛需類目

-創建類目購買頻次表

       

-計算類目購買頻次平均值

       

-查詢4756105,3607361,4357323三個類目的購買頻次       

4756105,3607361,4357323三個類目的用戶購買頻次明顯高於平均值,假設成立

 

假設3:有部分用戶是未點擊商詳直接從收藏和購物車購買的。

       

用戶不是直接從收藏和購物車購買的,只是後續復購未點擊商詳,假設不成立

 

假設4:淘寶推薦的商品主要是「同一類目下的高轉化商品」

       

用Excel對瀏覽量TOP100的商品ID和轉化率TOP100的商品ID進行去重,結果無重復值,假設不成立


3.結論:

1)用戶活躍:用戶活躍曲線整體呈上升趨勢,在一周中周六,周日活躍度比平時更高,在一天中用戶活躍曲線從凌晨4點開始往上升,在中午12點和下午5~6點有兩個小低谷(吃飯),到晚上9點時活躍度達到頂峰。

 

2)用戶留存:從2017年11月15日致2017年12月3日的用戶留存數據來看,淘寶的用戶留存數據較好,活躍用戶次日留存增長18.67%,當日的活躍用戶留存也在快速增長,第七日留存比次日留存高18.56%。

 

3)用戶轉化:整體轉化2.3%,用戶從瀏覽到購買的路徑主要有4條,路徑越長轉化率越低。

4)平台推薦與用戶偏好:從數據集中的數據來看,排除用戶興趣偏好標簽,淘寶給用戶用戶推送的商品主要是高頻剛需的類目,促使用戶復購,流量迴流平台。

 

以上結論受數據量和數據類型的影響,並不一定準確,僅用來練習數據分析方法。

(考慮到閱讀體驗文章中只放了SQL截圖,如需PDF版本,再公眾號後台回復「用戶行為分析」領取)

㈡ sql怎麽寫,求教

思路:
1、一般統計留存率的時候都會考慮到是某個時間段的數據
2、依據你得表結構是需要用分組(group by)與求和(sum)、去除重復登陸的人數(distinct
)、和內關聯(inner join)的方式
實現:

select
(selectsum(distinct)不重復登陸人數from登陸表where登陸時間between񟭑-01-01'and񟭑-02-08')*1.0
/(selectcount(0)總人數from注冊表)
*100

㈢ MySQL新增留存率

沒錯,留存的問題還沒有寫完,之前兩篇把日、周、月當期活躍用戶在後續周期的留存率問題解決了。但是還有個非常重要的指標,當期新增用戶的留存率,這個指標也是很有價值的,我們必須要關注不同日期拉新用戶的質量如何,看看不同時期新用戶的後續留存情況,對後續拉新的時間選擇也是有參考價值的。

其實實現也很簡單,只需要在之前的基礎上,先把當期的首次登陸用戶找出來就行了。實現方式是,按照用戶聚合,然後取日期最小值就能取出每個用戶首次登陸日期了,SQL語句如下↓

然後就以此為基礎,通過左連接把用戶表格再連接一次,判斷與首次登陸的日期相差多少天就行了,就能判斷是第N天有活躍,就能計算N日留存和留存率了,SQL語句和結果如下↓

後面就和之前思路一樣了,就可以求出日留存率情況了,SQL語句如下,解釋可以看前面兩篇。

然後按月實現方式和上一篇一樣的思路,關聯一個輔助表就行了,這里不詳細解釋了,可以參考上一篇,完整SQL語句和結果如下↓

那麼按周的留存率也是一樣的,SQL語句和結果如下↓

End

◆ PowerBI開場白
◆ Python高德地圖可視化
◆ Python不規則條形圖

㈣ 如下問題的sql語句怎麼寫

由於手上沒有sql環境,我這邊直接模擬一下,有錯誤的地方請指出:

1.每天每個地區播放次數最多的三首歌

selecttop3*from
(
selecta.area,b.songid,convert(varchar(30),b.date,111)as[每天],
sum(b.play_cnt)as[播放次數]
fromuseraleftjoinsongbona.userid=b.userid
groupbya.area,b.songid
)torderby[播放次數]desc

2.留存率

select*from(
selectb.*
fromuseraleftjoinsongbona.userid=b.userid
whereb.date>='2019-5-10:00:00'
andb.date<='2019-5-223:59:59'
)t
whereexists(
selectnullfromsongwheresong.songid=t.songid
and
convert(varchar(30),song.date,111)=
convert(varchar(30),dateadd(d,-1,t.date),111)
)

請試一下,如有疑問,及時溝通!

㈤ 求教各位大俠,請問一下SQL如何高效的計算留存率啊

具體的表呢,數據呢,什麼都沒有怎麼計算啊

㈥ sql面試題6 滴滴出行二面筆試題

滴滴出行二面筆試題

開心鴨

一個玩數據分析的鴨鴨

已關注

8 人贊同了該文章

在喝奶茶的時候突然收到一封郵件,猝不及防的開始了滴滴出行國際部二面筆試。感覺題目還是比較基礎的,我以為會有什麼留存率一些比較困難的業務題,慌的我喝了幾杯水,沒想到十分鍾就做完了,中途還接了個推銷電話..

學生表:tb_student(name:學生姓名,id:學號,class:班級,in_time:入學時間,age:年齡,sex:性別,major:專業)

1)學生成績表:tb_score(id:學號,course:課程,score:分數)

1. 篩選出2017年入學的「計算機」專業年齡最小的10位同學名單(姓名、學號、班級、年齡)

select name,id,class,age

from tb_student

where in_time='2017' and major='計算機'

order by age asc

limit 10

2.統計每個班同學各科成績平均分大於80分的人數和人數佔比

select c.class,

sum (case when c.avg_score >80 then 1 else 0 end) as ' 每個班同學各科成績平均分大於80分的人數',

sum (case when c.avg_score >80 then 1 else 0 end)/count(c.id) as ' 每個班同學各科成績平均分大於80分的人數佔比',

from

(select a.id,a.class,avg(b.score) as avg_score

from tb_student  a inner join tb_score b on a.id=b.id

group by 1)c

group by 1

參考:SELECT a.class,

sum(case when aaa.x > 80 then 1 else 0 end)as num_80 ,

(sum(case when aaa.x > 80 then 1 else 0 end)/count(*))as proportion

from tb_student a

INNER JOIN (SELECT id,avg(score)as x from tb_score GROUP BY id)as aaa

on a.id = aaa.id

GROUP BY class;

解析:寫一個子查詢,從score表中得到以學號分組的學生各科平均分。命名為aaa,將其與學生表內聯結。再以class分組,得到以class分組的各班學生的平均分,最後通過case語句,sum聚合函數得到平均分>80分的計數,和所佔各班總人數比例。

2)用戶教育經歷表:tb_user_e(uid:用戶id,star_date:入學時間,end_date:畢業時間,degree:學歷,school:學校,major:專業)

3)table1(id:自增id,money:費用)問題:按id順序累加money,取出累計值與1000相差最小差值的id。

select id

from(

select id,abs(1000-sum(money) over(order by id))as sub

from money

order by sub )a

limit 1

這個重要!

4) Employee 表包含所有員工信息,每個員工有其對應的 Id, salary 和 DepartmentId。

+----+-------+--------+--------------+

| Id | Name | Salary | DepartmentId |

+----+-------+--------+--------------+

| 1 | Joe | 70000 | 1 |

| 2 | Henry | 80000 | 2 |

| 3 | Sam | 60000 | 2 |

| 4 | Max | 90000 | 1 |

Department 表包含公司所有部門的信息。

+----+----------+

| Id | Name |

+----+----------+

| 1 | IT |

| 2 | Sales |

+----+----------+

編寫一個 SQL 查詢,找出每個部門工資第二高的員工。

seelct c.id

(select a.deparmentid,rank( ) over (partition by a.departmentid order by a.salary desc ) as rank_

employee a  inner join department  b on a.id=b.id)c

where c.rank_=2

寫錯了,emm 最開始好像並不需要join

㈦ sql計算留存率演算法

select ( select count(distinct userid ) from 登錄表 where 登錄時間 = 今天 ) / ( select count(1) from 注冊表 where 注冊時間 = 昨天 ) as 戶留存率