|
|
朋友你好,作者,5年個人站長,創業在路上,下面我用5000字的長文告訴你,獲取知乎流量的正確姿勢,思路 + 實操知行合一,純正干貨細節滿滿,請盡情享用
根據我本地數據的不完全統計(知乎百度top3關鍵詞)
百度PC端關鍵詞總流量為:1億2743萬
知乎實際獲取總流量為:1億2743萬 x 0.15(平均點擊率) = 1911萬
這只是單看PC端,一個超過2000W的流量機會擺在我們面前
一切依靠互聯網賺錢的前提,就是必須先獲取流量,而現在流量比黃金還寶貴
真實情況是,我身邊已經有5+位的朋友,在近半年內,依靠此次機會獲得了6W~25W不等的收益
而我們只需要一雙勤勞的雙手和一個思維清晰的大腦
那么
為什么會有這個流量機會?
流量機會具體指的是什么?
我們如何從中獲取流量?
下面,讓我來為你打開這扇流量的大門
閱讀指導:不同于市面上的各種“爽文”,本文按照我的實際思路,使用了正敘的方式講述如何“從0到1”,需要朋友一邊閱讀一邊思考,建議拿出一整塊的時間(10-20分鐘)進行閱讀
1. 資本的游戲
在“江湖”上流傳著這么一段話,大致內容是:
站長收割機,流量截胡達人百度daddy在2019年8月跟投知乎,快手領頭,隨后,百度對知乎提權,流量表現節節攀升
當時我看到這段話的時候,對接受的信息量打了一個問號,為什么?
熟悉傳播學的朋友應該知道一條基本原則:
對于任何事情,我們要盡量關注事實判斷,而非價值判斷
因為事實判斷是確鑿的,能夠達成共識 ;而價值判斷是依賴于視角和立場的,可以有多種解讀
這里的投資事件為事實描述,后面產生的影響為價值描述
然而就這么一個簡單的事實性描述網上卻有N個版本,有說錯時間點的,還有說錯投資方的
進行驗證后,你還會發現百度也投資過快手,可能是另外一個機會?
有時候思路就是根據事實發散出來
那么關于價值判斷,是不是真的有流量增長?是不是真提權?
直接上數據驗證(這里從投資時間點2019.8分段取愛站半年的數據,稍有誤差并無大礙):
詞量數據
1.jpg (14.08 KB, 下載次數: 60)
下載附件
2020-11-19 11:58 上傳
2.jpg (11.43 KB, 下載次數: 71)
下載附件
2020-11-19 11:58 上傳
3.jpg (12.01 KB, 下載次數: 56)
下載附件
2020-11-19 11:58 上傳
通過詞量數據我們可以觀察到以下2點:
從2019年11月中旬開始,流量跳躍式增長,詞量從30W漲到270W,近10倍!
從2020年7月開始,流量增長放緩,但仍保持增長趨勢
那么,這些流量是以何種方式增長的?
收錄數據
4.jpg (11.03 KB, 下載次數: 58)
下載附件
2020-11-19 11:58 上傳
5.jpg (7.51 KB, 下載次數: 58)
下載附件
2020-11-19 11:58 上傳
6.jpg (8.46 KB, 下載次數: 58)
下載附件
2020-11-19 11:58 上傳
通過收錄數據我們可以觀察到以下兩點:
雖然數據口徑不同,但在流量跳躍式增長期間,收錄量并無增長趨勢,也就是說,原收錄頁面在對應搜索詞下的排名提升了,提權實錘
7.jpg (27.04 KB, 下載次數: 63)
下載附件
2020-11-19 11:58 上傳
當已收錄的頁面不能覆蓋更多搜索詞的時候,百度給知乎的定向流量將到達臨界值,嗝~
上面的分析很容易造成一種“廢話感”,因為分析結果跟首次接收的信息基本相同,我們的大腦不能處理相同的信息
這恰恰是兩個思維方式“歸納法”和“演繹法”的不同之處
如果不做驗證,歸納思維隱含假設了百度提權是真實的,導致后面的動作全部基于一個假設
而演繹思維的每一步完全基于條件為“真”的前提,想想看,如果分析結果相反會導致什么結果
在這個信息爆炸的時代,我們實在太需要篩選信息的能力,其中保持獨立思考顯得尤為重要,但獨立思考并不是針對everything都要提出不同觀點
有效思考是必須建立在足夠的知識積累之上,不然就是盲目思考
如果身處陌生領域,學習同行仍然是不錯的選擇
那么雖然流量增長放緩,但如此巨大的流量知乎并沒有全量“吞下”,現在仍然有且肯定有機會來利用這個紅利期獲取流量并且賺錢
Let’s keep going !
2. SEO?
收錄?排名?提權?如果你產生了疑問,那你可能還不太了解SEO這個領域,下面簡要描述
SEO即通過了解搜索引擎(以下簡稱SE)的規則來調整網站,使其在目標搜索引擎上的排名提高,達到獲取流量的目的
收錄:SE的爬蟲系統抓取網頁后,緩存在服務器上的行為
權重:SE對站點的綜合評分,排名的主要依據
排名:頁面緩存在搜索結果中的排列位置
以上3點均為動態變化
那么,一個搜索流量是如何產生的呢?
首先用戶輸入搜索詞(query),向SE發起搜索請求,SE將已緩存的頁面通過算法進行排名計算,然后返回給前端(瀏覽器),用戶觀察搜索結果,根據自己的喜好從搜索結果中點擊頁面
一個頁面要想有流量,就得先有收錄(被SE緩存),然后還得排名靠前(top10),然后還得有人搜(搜索量),最后還得看了讓人想點擊(標題+描述)
在點擊的環節,知乎具有重要的先天優勢,經過多年“知識型”平臺的定位與發展,用戶對知乎品牌建立起天然的信任感,可能導致即便排名不在前3名,但仍然能獲得超過同位大盤的點擊率
此次雙劍合璧,百度給知乎做定向流量,而知乎又將流量效率提升了一截,美哉美哉
3. 藍海問題 + 藍海流量
那么我們的機會在哪呢?
宏宏最近缺錢,于是去百度上搜了“怎么來錢快”(真實數據,僅做示例),發現知乎某個頁面排名第1
8.jpg (22.51 KB, 下載次數: 57)
下載附件
2020-11-19 11:58 上傳
然后小手一抖點擊進入,望著空蕩蕩的頁面,面部表情發生了細微的變化
9.jpg (21.18 KB, 下載次數: 66)
下載附件
2020-11-19 11:58 上傳
坑爹呢這是!
5年的網賺經歷給了我敏銳的嗅覺,這是機會
于是我拿到了百萬級關鍵詞+知乎數據,篩選分析后發現,有相當一部分問題頁面有搜索流量但是存在以下情況:
回答未解決搜索需求
回答質量低
回答少
回答前N名贊少
那么我們能不能找到這類問題,自己編寫答案,然后使得排名靠前,向我們自己的載體(微信 / 公眾號等)導流?
答案是肯定的!
綜上所述,有搜索流量并且競爭低的問題,我們統稱為“藍海問題”,這些問題流量的集合,我們統稱為“藍海流量”
下面來個小炸彈,朋友們體驗先~(SE排名是動態的,大家實際搜索可能略有出入,另外考慮到公開性,大概選了一個例子)
10.jpg (25.67 KB, 下載次數: 58)
下載附件
2020-11-19 11:58 上傳
11.jpg (20.45 KB, 下載次數: 55)
下載附件
2020-11-19 11:58 上傳
BOOM!沒錯就是gay,同一個問題PC和移動端排名都是第2,移動月均搜索量44.7W,PC月均搜索量9.5W,加起來50W,排名第2的點擊率為20%左右,也就是說這個問題一個月有10W的SEO流量,里面的回答呢?
12.jpg (28.47 KB, 下載次數: 79)
下載附件
2020-11-19 11:58 上傳
第1名只有58個贊,有機會上去嗎?有!有方法變現嗎?
4. 突破認知局限
有些朋友們可能到這里就坐不住了,腦子里開始構思所在行業應該如何操作
可是,萬一你所在的行業沒有藍海流量呢?為什么一定要在你熟悉的領域做呢?
流量高手的思維,從來都是大盤思維,即以全局的視野來思考問題
而此次,我們要分析知乎整體搜索流量的分布,哪里有藍海流量,我們就去到哪,而不只局限于某個問題,某個行業
甚至知乎好物完全可以基于藍海流量的思維
始終記住我們的目的只有一個,那就是賺錢
同時,這也是我寫【TACE】(Traffic ACE,流量高手)這個公眾號的主要思想,只不過后來去折騰項目,很少發文,咳咳….
前面講了不少內容,那是因為我想把“道”這個層面講清楚,即為什么這么干;而“法”是死的,規則發生變化,方法立即失效
舉個例子:特斯拉誕生之初,電池成本比當時市面上低了10倍,CEO馬斯克為什么能做到?
那是因為他的道是“物理學思維”,把事物拆解成最小單元尋求解決方案(TED有演講)
但是,80%的人都喜歡直接得到方法,why?
爸爸說他聽爺爺的姥爺說過,在幾十萬年前,人類還在狩獵階段的時候,為了存活下去,才誕生了大腦
而大腦的進化需要上百萬年,人類誕生歷史不過才二十萬年左右,也就是說現在我們還是用著“舊腦子”
其中“舊腦子”一個顯著的特點是最小作用力原理,人類天生會默認做出消耗腦力低的行為,即能不用腦就不用腦,而道理的學習用腦程度較高
包括我,每當自己懶得動腦的時候,我就嘲諷自己是個原始人,咳咳…
那么下面,就讓我們一步步的進入“戰場”
5. 打造百萬級詞庫
詞庫是用戶搜索詞和詞屬性的集合
我們盡可能的收集N個渠道的關鍵詞,因為每個渠道或第三方平臺都有他的局限性
在流量高手眼里,詞庫里躺的不是一個個的關鍵詞,而是一張張的RMB
以搜索流量的視角來看,在大多數情況下,加詞等于加流量
你能找到別人找不到的詞,你就能拿到別人拿不到的流量,從而賺到別人賺不到的錢
關于數據的儲存格式,個人建議直接使用csv形式,以逗號為分隔符的本地文件儲存,相比于mysql類的數據庫,用Bash shell來查詢和分析不要太方便
拿詞渠道:
5118,愛站,站長之家。
下面我用5118舉例
5.1 母詞獲取
1)5118
分別下載百度PC關鍵詞和移動關鍵詞,分開處理
13.jpg (27.04 KB, 下載次數: 67)
下載附件
2020-11-19 11:58 上傳
沒有會員的朋友自行淘寶,有企業版的朋友建議全量導出
接下來的步驟,我們會開始涉及一些編程知識:
Bash shell(Linux) + Python
因為此次數據計算的需求常規工具已經不能滿足,所以我們要動用“神秘”的編程力量
我自己已經全部開發完畢,部分簡單的Bash shell命令行直接在文章內給出
但是我相信就這一點會讓80%的人知難而退,可是包括我,誰又不是從小白一步步走過來的呢?
編程真的沒有那么難,trust me!如果可以,告訴自己做那20%
另外請記住,我們不是要成為一個專業的程序員,編程能力能滿足我們當前所需就好
2)初始處理
轉碼(GBK > UTF-8),因為5118給出的數據編碼是GBK,而Linux里需要UTF-8
只輸出關鍵詞,不使用其他數據,因為第三方數據的準確度實在差強人意,像5118這種量級每天的更新量少說也要1億,成本擺在這。
獲取前100名第一因為數據準度低,后面我們要自己驗證數據第二前面提到過動態排名 & 百度提權,在你獲取數據和驗證數據中間存在時間差,在時間差里排名可能已經發生了變化。
bash shell:
cat 輸入文件名| iconv -c -f GB18030 -t utf-8| grep -Ev "整域百度PC關鍵詞排名列表|百度指數|100以外"|awk -F, '{print $1}' > 輸出文件名
3)關鍵詞清理
特殊符號
[\s+\.\!\?\/_,$%^*()+\"\']+|[+——!,::。√?、~@#¥%……&*()“”《》~]
非常容易忽視的一步,很多人天然信任不同渠道產出的關鍵詞數據(包括百度),但是“流量高手,”與“流量高手”的搜索量數據差了十萬八千里
網址
www|com|cn|cc|top|net|org|net|cn|rog|cn|tv|info|wang|biz|club|top|vip
年份替換,例如2010年替換為2020年
中文長度 >=2 (可選)
4)去敏感詞
非法詞匯你懂得,這里我們使用了DFA算法,平均處理一個關鍵詞不到0.1s
5) 去重
去重是非常重要的一步,但對內存要求比較高,也就是說你要去重的文件大小不能超過可使用內存大小
目前的解決方法是用sort + uniq,先用split將目標文件分割,然后用sort逐個排序,然后sort+uniq合并去重
雖然沒有大幅減少內存使用大小,但提升了計算效率
bash shell 簡版:
cat 輸入文件名 | sort | uniq > 輸入文件名
bash shell 大數據版:
#!/bin/bash#命令行參數:#$1 輸入文件#$2 輸出文件basepath=$(cd `dirname $0`; pwd)echo `date` "[wordsUniq.sh DEBUG INFO] 開始文件分割..."split -l300000 $1 ${basepath}/words_split/split_ #文件分割echo `date` "[wordsUniq.sh DEBUG INFO] 開始單個排序..."for f in `ls ${basepath}/words_split/`dosort ${basepath}/words_split/${f} > ${basepath}/words_split/${f}.sort #單個排序doneecho `date` "[wordsUniq.sh DEBUG INFO] 開始合并去重..."sort -sm ${basepath}/words_split/*.sort|uniq > $2echo `date` "[wordsUniq.sh DEBUG INFO] 刪除緩存數據..."rm ${basepath}/words_split/*
使用方法:
儲存為filename.sh文件,在當前目錄創建words_split文件夾,然后使用如下命令行,輸入輸出文件均可指定路徑
sh 腳本名稱.sh 輸入文件 輸出文件
OK,處理完畢,現在我們已經得到了兩份非!案蓛簟钡哪冈~數據,即知乎百度PC關鍵詞和移動關鍵詞
5.2 詞擴展
詞擴展即對獲得的母詞進行擴展,因為一個頁面可能命中多個相關的關鍵詞
進而我們可以假設,從第三方平臺獲取的詞只是他們所能找到的,當前知乎所能命中的詞的子集
我們要盡可能的把其他部分的詞找出來,從而比較準確的預估一個問題頁面的百度流量
14.jpg (18.63 KB, 下載次數: 68)
下載附件
2020-11-19 11:58 上傳
假設現在有A和B兩個問題,在你的詞庫中,A命中50個關鍵詞,總流量為1W,B命中10個關鍵詞,流量為100
那么你可能將B問題忽略掉,只處理A問題
可是,B問題實際上命中了100個關鍵詞,流量為10W
這樣由于數據的不完整性造成了信息差,進而直接錯過了獲取這些流量的機會
舉個例子:
15.jpg (41.02 KB, 下載次數: 55)
下載附件
2020-11-19 11:58 上傳
經過擴展,這個頁面共命中47個關鍵詞,PC+移動總流量為132W,廣告太多知乎被迫風控提醒,下面是展示該部分數據
16.jpg (38.46 KB, 下載次數: 59)
下載附件
2020-11-19 11:58 上傳
怎么樣,是不是開始慢慢感受到數據的魅力了?打起精神,Let’s keep going!
由于只做百度流量,下面只使用百度來擴展
1)相關搜索 + 下拉框詞抓取
很多人只知道抓這兩個渠道,并不知道這兩個渠道的性質:
相關搜索
相關搜索為橫向擴展,大部分為跨關鍵詞主題的相關擴展,其中可能出現主題嚴重漂移的情況,為保證相關性,只抓取一輪
下拉框
下拉框為縱向擴展,大部分在關鍵詞的結尾追加詞綴
闡明渠道性質的意義在于,關鍵詞這種文本數據,擴展方向有且只有這兩個,其他擴展渠道方法都是這兩個基本方向的疊加或者變種
因為不同端產出的數據可能不同,所以我們要把PC端和移動端的母詞,分別進行同端口的擴展
即PC母詞抓PC相關搜索 + PC下拉框,移動母詞抓移動相關搜索 + 下拉框
2)百度推廣后臺詞擴展
路徑為:注冊/登錄 > 進入搜索推廣 > 推廣管理 > 關鍵詞規劃師 > 關鍵詞
注冊免費,另外你還可以使用艾奇SEM工具/斗牛SEO工具等
3)詞處理
先將各個渠道的詞分端口合并
bash shell:
cat file1.txt file2.txt > all.txt
然后重復【5.1母詞獲取】的關鍵詞清理和去重部分
5.3 獲取關鍵詞流量
同樣使用到百度推廣后臺的關鍵詞規劃師,但使用的是“流量查詢”的功能
這是百度官方給出的流量數據,以前的數據口徑是日搜索量,現在變成了月搜索量,不過并無大礙
有的朋友可能產生疑問,為什么不先抓排名篩選數據,減輕下一步的數據量壓力?
因為關鍵詞規劃師一次能查詢1000個!10W個關鍵詞只需查詢100次!
并且實測證明獲取一次cookie可跨天使用,并保持10+個小時的有效登錄(答應我,請務必下手輕一點)
1)流量數據獲取
通過模擬登錄的方式post關鍵詞數據
2)數據篩選
每個端只保留搜索量 >= N的關鍵詞(數值自定義)
你可以在數據獲取的同時去做篩選,也可以拆開另做一個篩選步驟,這里個人建議后者,萬一指標不合理還有重新篩選的余地
bash shell:
cat file.txt | awk -F, '{$2>=100}' > file_new.txt
5.4 獲取關鍵詞排名
分別獲取各端的排名數據,只保留
https://www.zhihu.com/question/{問題ID}
這個url特征下,前10名的關鍵詞,以及儲存對應的問題url
5.5 可獲取流量
關鍵詞流量并不等于知乎問題頁面能獲取的實際流量
前面提到過,搜索流量在到達頁面之前還有一個點擊的步驟,所以我們應該把可獲取流量計算出來,公式為:
可獲取流量 = 流量 X 點擊率
點擊率根據排名估算,但是百度似乎從來沒有發布過點擊率數據,咳咳…
但是我們找到了一份Sistrix在2020年7月14日發布的google點擊率數據,該數據分析了超過8000萬的關鍵字和數十億的搜索結果
雖然只是移動端的統計,但并無大礙
原文(英文):
https://www.sistrix.com/blog/why-almost-everything-you-knew-about-google-ctr-is-no-longer-valid/
17.jpg (16.15 KB, 下載次數: 48)
下載附件
2020-11-19 11:58 上傳
每個關鍵詞的可獲取流量計算完成后,我們的詞庫就搭建完畢了,Niceee!
6. 知乎數據獲取
數據獲取的目的是,我們能從這個N個維度的數據中,初步判斷出某個問題的難易度(對應9.1數據篩選)
數據在精不在多,過多的數據只會干擾判斷
問題瀏覽量
問題關注量(知乎站內流量)
問題創建時間
回答數量
第1名贊數量
第1名回答字數
第1名回答時間
目前為止,我們需要的基礎數據全部準備完畢,現在你應該得到了一個百度 + 知乎數據的關鍵詞文件,good job!
如果你堅持到了這里,我相信,我會非常愿意認識你這樣的朋友^_^
7. 數據分析
7.1 關鍵詞分組
面對海量雜亂無章的數據,我們需要通過關鍵詞分組的形式,將相關的關鍵詞和其對應的問題頁面聚集到一起
1)jieba分詞
利用python-jieba模塊,將每個關鍵詞切分成N個詞項(term),比如“流量高手”會被分詞為“流量”+ “高手“,包含相同詞項的詞視為一組
2)詞項去重
參考【5.1母詞獲取】的去重部分
3)詞項數據計算
用每個詞項去匹配關鍵詞,并計算匹配結果的數量(詞頻)和可獲取流量總和
SEO的朋友們可能有種熟悉的感覺,這種方式類似于搜索引擎的“倒排索引”,我們實際上就是以term為索引,歸類了知乎URL
下面隨便拿點演示數據:
18.jpg (25.19 KB, 下載次數: 62)
下載附件
2020-11-19 11:58 上傳
7.2 人工分類
直接按詞項分組是單純從字符串角度上的分組,簡單粗暴但缺乏語義關系
比如“炒股”和“股票”這兩個特征應該屬于金融類,但按詞項分組就會變成兩組,所以最后應該人工過一遍
分類完成后,將對應的詞頻和可獲取流量總和相加,得到總數據
然后用思維導圖/表格的形式記錄,下面用思維導圖示例
19.jpg (10.49 KB, 下載次數: 53)
下載附件
2020-11-19 11:58 上傳
但是記住,不要為了分組而分組,沒有明顯相關性的詞項不應該被分到一組,否則那是在給自己找麻煩
8. 問題篩選
8.1 數據篩選
現在我們可以從可獲取流量最多的類別中選取一個詞項,在我們完成【6-7】后的關鍵詞文件里,使用Bash shell 或者 在Excel-csv里搜索“關鍵詞列”,找出包含這個詞項的關鍵詞,然后用指標來篩選,下面給出幾個篩選數值僅做參考
問題瀏覽量(輔助)
問題關注量(輔助)
問題創建時間(輔助)
回答數量 <=50
第1名贊數量 <= 100
第1名回答字數 <= 800
第1名回答時間 (輔助)
可獲取流量 >= 100
說一個場景,經過硬性指標篩選后,如果一個問題頁面的瀏覽量遠低于可獲取流量,關注量少,問題創建時間為最近,第一名回答時間為最近,那么這類問題需要重點mark一下
但是why?朋友們不妨自己思考一下
好啦我來告訴你,每一類人群的數量是有限的,如果把上面的條件反回來,那么很可能你已經miss掉一部分流量,所以我們要有搶占先機的意識
篩選完成后,可按照【可獲取流量】或【第1回答贊同數量】等條件降序排序,藍海問題一目了然
8.2 人工篩選
人工主要來解決數據判斷不了的內容問題,即第1名的回答是否未滿足問題需求,主要找以下2種類型:
1)直接滿足,但用戶的隱含需求未被滿足,存在擴展空間
舉例
Q:“汽車多久保養一次”
A:“我一般一季度保養一次”
A(new):“不同品牌的汽車保養時間不同,我下面列出所有品牌xxx,保養項目xxx,機油選擇xxx,保養什么坑xxx”
2)間接滿足
正好翻到一個,上圖
20.jpg (29.23 KB, 下載次數: 34)
下載附件
2020-11-19 11:58 上傳
回答說明了按鍵精靈,但并沒有給出這個腳本怎么寫
相信到了這里,你已經找到了N個類別的N個問題,然后馬上開始分析問題 > 列大綱 > xxxx…..
Stop!請立刻停止你的上頭行為,我們還有最后一步
9. 流量跟蹤
萬里長征最后一步,非常重要,非常重要,非常重要
我們前面提到2點:
在百度推廣后臺-關鍵詞規劃師中,流量的數據口徑是月,并且是預估值
SEO的網頁排名是動態的
這就可能造成結果的不穩定性,辛辛苦苦做了數據,寫了回答,搞了排名,結果卻沒有閱讀量?
所以我們要監控頁面的瀏覽量是怎樣增長的,來確定這個頁面是否真的獲取了流量,能獲取多少流量,最終判斷要不要回答這些問題
監控時間單位可以是天,細致點可以每N個小時,監控時長大家自己判斷,當然越長越準確
舉個例子,假設某個問題的可獲取流量為15W,那么平均每天的可獲取流量為5000左右,那么3天(不考慮節假日)的可獲取流量為1.5W
記錄該頁面的瀏覽量并且對比,只要上下浮動不是特別大,那么就可以列入我們的回答清單
10.最后
我們將視角提升到整個營銷的層面,會發現藍海流量獲取是整個營銷環節的第一步,其他部分諸如回答排名 & 流量路徑 & 變現等
還有很多方法技巧類能幫助我們更好的利用藍海流量,比如數據交叉計算,進階玩法等
但是要將上面說的展開,又是很大一部分內容,受時間和精力所限,我們下次再講
作者:CashWar 公眾號:TACE |
溫馨提示:
1、本內容內由作者投稿,版權歸原作者所有!
2、本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
3、本內容若侵犯到你的版權利益,請聯系我們,會盡快給予刪除處理!
|