聲明:此文為單純討論分享,如有違規請告知。謝謝。
因網路資訊量過於龐大。所以人們總是會依照口碑,流量為參考。進行資訊的瀏覽。
但很可惜,流量高也不等於有效資訊。也有可能真正有用的資訊隱藏在深不見底網路中...
但是這也是個保險的做法。我們也沒有足夠的時間可以在資訊海當中查找真正好的資源。
所以還是遵循大眾法則。被人反覆走過的路。對自身而言未必是正確的。但也不會錯的太理譜。
也就是說提升流量。也就可以讓自己的東西更容易在別人面前做展示。
import requests
sess = requests.session()
header = {
"Accept": "application/json, text/plain, */*",
"authorization": "請輸入對應的value",
"commonConfig": "請輸入對應的value",
"Content-Type": "application/json",
"instance": "請輸入對應的value",
"locale": "zh",
"Referer": "https://www.info.tedu.tw/_partials/wix-thunderbolt/dist/clientWorker.c1969c62.bundle.min.js",
"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.99 Safari/537.36",
"x-wix-brand": "wix",
"X-Wix-Client-Artifact-Id": "wix-thunderbolt",
"x-wix-site-revision": "302"
}
for i in range(100):
res = sess.post("https://www.info.tedu.tw/_api/communities/posts/623bde52065dc80016dfea1d/views", headers=header)
print(res.text)
代碼結構本身不困難就是header加上請求網址post出去,困難的在解析網頁本身。js檔也有經過攪亂。要解析通常都不太容易。最理想的方式還是透過request對server發出計數請求。退而求其次的方式就是利用selenium。當然厲害的網站。都會對數據的造假進行對策與防範。
之前去面試的時候,對方技術長評價我的作法偏向黑帽。我也覺得寫這些也不是我想要的。但倒底是哪裡開始錯了...。