使用 Python 擷取 LinkedIn:完整逐步指南

最後更新於 April 14, 2026

如果你曾經想過要建立一份 B2B 潛在客戶名單、做競品分析,或只是想讓 CRM 保持最新,你一定知道 LinkedIn 有多麼像一座資料金礦。但老實說,手動複製個人檔案資訊,無聊程度大概跟看油漆乾掉差不多,而且 LinkedIn 自己的工具也很少能提供你真正想要的資料。也因此到了 2026 年,越來越多銷售與營運團隊開始想用 Python 擷取 LinkedIn,把原本要花好幾個小時重複點擊的工作,變成幾行程式碼和一份裝滿潛在客戶的試算表。

man-linkedin-notebook.webp

但問題在於:LinkedIn 現在幾乎就是商業資料的諾克斯堡。它擁有超過 13 億會員,每月活躍用戶更高達 3.1 億),是 B2B 潛在客戶的頭號來源,同時也是對機器人和爬蟲防堵最嚴密的平台之一。事實上,光是 2025 年 LinkedIn 就限制了超過 3000 萬個帳號,原因就是擷取或自動化操作()。那麼,在 2026 年你到底要怎麼用 Python 擷取 LinkedIn 資料,還能避免帳號被丟進數位監獄?接下來我們就從環境設定、安全擷取、資料清理,一路談到像 Thunderbit 這類工具如何直接加速你的工作流程,帶你一步一步拆解。

用 Python 擷取 LinkedIn 是什麼意思?

當我們在說 用 Python 擷取 LinkedIn,其實就是利用 Python 腳本與函式庫,自動從 LinkedIn 網頁上收集資料。你不需要一筆一筆手動複製姓名、職稱或公司資訊,而是寫一段程式,讓它代勞去瀏覽個人檔案、擷取你要的欄位,並把資料存成結構化格式。

人工收集資料,就像一顆一顆撿蘋果。用 Python 擷取 LinkedIn 資料,則像是把整棵樹搖一搖,再用籃子接住蘋果。這裡的核心關鍵字——linkedin data extraction pythonpython linkedin scraper、以及 automate linkedin scraping——本質上都在講同一件事:用程式大量、快速地收集 LinkedIn 資料,速度比人工快得多,而且理想上也更安全。

LinkedIn 擷取的常見商業情境:

  • 建立精準的銷售開發名單
  • 用最新的職稱與公司資訊補強 CRM 資料
  • 追蹤競爭對手的招募趨勢或高階主管異動
  • 盤點產業人脈網路,做市場研究
  • 彙整公司貼文或職缺資訊進行分析

簡單說,如果你需要結構化的 LinkedIn 資料,又不想週末都耗在按「連結」上,那 Python 就是你的好幫手。

為什麼要自動化 LinkedIn 擷取?關鍵商業用途一次看

說實話,LinkedIn 不只是社群網站,它更是現代 B2B 銷售與行銷的基礎設施。以下就是 2026 年各團隊熱衷自動化 LinkedIn 擷取的原因:

  • 開發潛在客戶: ,而且 62% 表示確實有帶來名單。LinkedIn 產生的潛在客戶量,比 Facebook 和 Twitter 加總還多 277%
  • 市場與競品研究: LinkedIn 是少數能大規模看到即時組織圖、招募趨勢與公司動態的平台。
  • CRM 補資料: 沒有自動化,CRM 要維持新鮮度幾乎是不可能任務。擷取 LinkedIn 可以批次更新職稱、公司與聯絡資訊。
  • 內容與活動分析: 想知道你所在領域誰在發文、演講或招人?LinkedIn 擷取就能給你答案。

下面這張表快速整理最常見的應用:

團隊應用情境帶來的價值
銷售建立名單、準備外聯更多會議、更高轉換率
行銷受眾研究、內容策劃更精準的投放、更高互動率
營運CRM 補資料、組織架構整理資料更乾淨、減少人工輸入
招募人才搜尋、競品追蹤更快招募、更聰明的招募管道

那投資報酬呢?使用 AI 自動化做潛在客戶開發的團隊回報,每天可節省 2 到 3 小時),像 TripMaster 這類公司甚至從 LinkedIn 導向的名單開發中看到 650% 的 ROI)。這不只是省時間,而是直接放大銷售管道。

Python vs. 其他 LinkedIn 擷取方案:你需要知道的事

那為什麼要用 Python,而不是瀏覽器擴充套件或 SaaS 工具?以下直接講白話:

手動複製貼上

  • 優點: 不用設定,幾乎沒風險(除非你手腕快廢掉)
  • 缺點: 慢、容易出錯、完全無法擴充

瀏覽器擴充套件(例如 PhantomBuster、Evaboot)

  • 優點: 設定簡單、免寫程式、適合小規模任務
  • 缺點: 規模有限、封鎖風險高、常常需要 Sales Navigator、還得付月費

SaaS API(例如 Bright Data、Apify)

  • 優點: 可大規模處理、維護成本低、合規性由供應商處理
  • 缺點: 大量使用成本高、有時資料延遲或快取,彈性較低

Python 腳本

  • 優點: 彈性最高、規模化後單筆成本最低、可取得即時資料
  • 缺點: 技術門檻高、封鎖風險最高、需要持續維護

來看一張對照表:

面向DIY Python瀏覽器擴充套件SaaS API
設定時間幾天到幾週幾分鐘幾小時
技術門檻中等
成本(1 萬列)約 200 美元(代理)50–300 美元300–500 美元
擴充上限低到中等
被封風險最高最低
資料即時性即時即時快取
維護成本持續需要
合規責任由使用者承擔由使用者承擔由供應商承擔

結論: 如果你夠技術,且想完全掌控流程,Python 幾乎無可取代。不過對大多數商業使用者來說,像 這類工具,通常能更快、更安全地拿到 LinkedIn 資料——尤其是 LinkedIn 的防禦一年比一年更嚴。

開始之前:先建立你的 Python LinkedIn 爬蟲環境

準備好捲起袖子了嗎?以下是 2026 年用來設定 LinkedIn 擷取環境的做法:

1. 安裝 Python 與必要函式庫

  • 建議使用 Python 3.10+,相容性最佳。
  • 核心函式庫:
    • Playwright(目前瀏覽器自動化的新標準)
    • Selenium(仍然熱門,但速度較慢、也更容易被偵測)
    • Beautiful Soup(用來解析 HTML)
    • Requests(處理簡單 HTTP 請求;在 LinkedIn 上用途有限)
    • pandas(資料清理與匯出)

使用 pip 安裝:

1pip install playwright selenium beautifulsoup4 pandas

Playwright 還需要安裝瀏覽器執行檔:

1playwright install

2. 設定瀏覽器驅動程式

  • Playwright 會自行管理驅動程式。
  • Selenium 需要
  • 務必確認瀏覽器版本與驅動程式版本相符。

3. 先處理登入

  • 你需要一個 LinkedIn 帳號(最好是有使用歷史、而且看起來像真人在用的帳號)。
  • 多數腳本會採用以下其中一種方式:
    • 自動化登入流程(有 CAPTCHA 風險)
    • 注入 li_at session cookie(更快,但仍有風險)

4. 遵守 LinkedIn 的使用條款

警告: 即使是用你自己的帳號去擷取 LinkedIn,仍然違反其使用者協議。相關法律環境相當複雜(可參考 hiQ 與 LinkedIn 的訴訟案),而且 LinkedIn 現在的執法態度非常強硬。這些腳本應僅用於教育或內部研究用途,絕對不要販售或公開散布擷取來的資料。

面對 LinkedIn 限制:2026 年如何降低帳號被封風險

接下來就是最棘手的地方。2026 年 LinkedIn 的反機器人防護不是鬧著玩的。他們已經讓不少公司直接關門大吉(Proxycurl 就是個例子),而且 2025 年單年就限制了超過 3000 萬個帳號)。那你要怎麼擷取才不會被打爆?

主要風險

  • 速率限制: 沒登入的使用者,每個 IP 大約只能看 50 個個人檔案/天。登入帳號在碰到 CAPTCHA 或封鎖前,大概可以操作幾百次()。
  • CAPTCHA: 很常出現,尤其是在短時間快速瀏覽個人檔案或重複登入之後。
  • 帳號限制: LinkedIn 可以鎖定、限制,甚至永久封禁可疑帳號。

已驗證可降低風險的做法

  • 使用手機或老化的住宅代理: 手機代理在 LinkedIn 上的存活率可達 85%,住宅代理約 50%,資料中心 IP 幾乎是零()。
  • 隨機化延遲: 不要固定 time.sleep(5),而是把延遲隨機設定在 2 到 8 秒之間。
  • 先養號: 不要讓新帳號一口氣看 100 個個人檔案,先慢慢來,模擬真人行為。
  • 在上班時間擷取: 盡量配合帳號所屬時區。
  • 每次工作階段輪換 User Agent: 但不要在同一個 session 中途更換,LinkedIn 會抓。
  • 自然滾動頁面: 用瀏覽器自動化模擬正常捲動,觸發延遲載入內容。
  • 每個帳號使用獨立 IP: 絕對不要讓多個帳號共用同一個代理。
  • 監控早期警訊: 若出現 429 錯誤、被導向 /authwall,或個人檔案內容空白,代表你快被封了。

專業提醒: 就算是最好的隱身外掛(Playwright Stealth、undetected-chromedriver),也只是修補表層指紋。LinkedIn 的偵測遠不只這些,所以別太自信。

選對 Python 函式庫,才能做好 LinkedIn 資料提取

到了 2026 年,Python 擷取工具的版圖已經比以前清楚很多。以下是主流函式庫的比較:

函式庫靜態 HTMLJS 渲染登入流程速度最適合
Requests + BS4最快小型、僅公開頁面
Selenium 4.x舊專案、瀏覽器支援廣泛
Playwright (Python)2026 年 LinkedIn 的預設選擇
Scrapy搭配外掛可行需額外處理大量結構化爬取

為什麼 Playwright 是 LinkedIn 的首選:

  • 相較 Selenium,頁面載入速度快 12%,記憶體使用量低 15%
  • 能自然處理 LinkedIn 的非同步載入,不需要手動補丁
  • 內建分頁管理,適合平行擷取
  • 有官方的 stealth 外掛,可做基本指紋迴避

新手建議: 如果你剛開始接觸,Playwright 會是最穩的選擇。Selenium 還是適合舊專案,但速度慢,也更容易被偵測。

逐步實作:你的第一支 Python LinkedIn 爬蟲腳本

我們來看一個簡單範例:先用 Selenium(適合初學者),再看 Playwright(較適合正式環境)。記得,這些腳本僅供教育用途。

範例 1:最簡版 Selenium 登入與個人檔案擷取

1from selenium import webdriver
2from selenium.webdriver.common.by import By
3from selenium.webdriver.common.keys import Keys
4import time, random
5driver = webdriver.Chrome()
6driver.get("https://www.linkedin.com/login")
7driver.find_element(By.ID, "username").send_keys("you@example.com")
8driver.find_element(By.ID, "password").send_keys("yourpassword" + Keys.RETURN)
9time.sleep(random.uniform(3, 6))  # 隨機延遲
10# 開啟個人檔案
11driver.get("https://www.linkedin.com/in/some-profile/")
12time.sleep(random.uniform(4, 8))
13# 捲動頁面以觸發延遲載入
14driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
15# 擷取資料(簡化版)
16name = driver.find_element(By.CSS_SELECTOR, "h1").text
17print("Name:", name)
18driver.quit()

注意: 若是正式環境,建議直接注入 li_at cookie,而不是每次都重新登入,這樣比較不容易碰到 CAPTCHA。

範例 2:Playwright 非同步爬蟲(2026 年推薦)

1import asyncio
2from linkedin_scraper import BrowserManager, PersonScraper
3async def main():
4    async with BrowserManager() as browser:
5        await browser.load_session("session.json")  # 儲存你的登入 session
6        scraper = PersonScraper(browser.page)
7        person = await scraper.scrape("https://linkedin.com/in/username")
8        print(person.name, person.experiences)
9asyncio.run(main())

()

防封鎖措施要放哪裡:

  • 在 browser manager 中使用手機代理
  • 在每個動作之間加上隨機延遲
  • 分批擷取,不要一次全抓完

警告: 任何依賴選擇器的爬蟲,只要 LinkedIn 改版 DOM 就會壞掉,而這種事情幾乎每幾週就會發生一次。你得準備好持續維護。

用 Python 清理與格式化 LinkedIn 資料

擷取只是第一步。LinkedIn 資料通常很亂——重複姓名、職稱格式不一致、還會出現奇怪的 Unicode 字元。以下是整理方式:

1. 用 pandas 做表格整理

1import pandas as pd
2df = pd.read_csv("linkedin_raw.csv")
3df = df.drop_duplicates(subset=["email", "phone"])  # 精準去重
4df["name"] = df["name"].str.lower().str.strip()

2. 用模糊比對處理公司名稱

1from rapidfuzz import fuzz
2def is_similar(a, b):
3    return fuzz.ratio(a, b) > 90
4# 例子:"Acme Corp" vs "ACME Corporation"

3. 標準化電話與電子郵件

1import phonenumbers
2from email_validator import validate_email, EmailNotValidError
3# 電話標準化
4num = phonenumbers.parse("+1 415-555-1234", None)
5print(phonenumbers.format_number(num, phonenumbers.PhoneNumberFormat.E164))
6# 電子郵件驗證
7try:
8    v = validate_email("someone@example.com")
9    print(v.email)
10except EmailNotValidError as e:
11    print("無效的電子郵件:", e)

4. 匯出到 Excel、Google Sheets 或 CRM

  • Excel: df.to_excel("cleaned_data.xlsx")
  • Google Sheets: 使用 gspread 函式庫
  • Airtable: 使用 pyairtable
  • Salesforce/HubSpot: 使用各自對應的 Python API 客戶端

專業提醒: 在匯入 CRM 前,一定要先清理並去重。沒有什麼比重複聯絡同一位潛在客戶更讓業務心情低落了。

用 Thunderbit 提升 LinkedIn 擷取效率

接下來,聊聊怎麼讓你的工作更輕鬆一些。雖然我很喜歡 Python,但維護 LinkedIn 爬蟲幾乎就是一場永無止盡的打地鼠遊戲。這也是為什麼我們在 Thunderbit 打造了 ,把 LinkedIn 資料提取的痛苦降到最低。

為什麼選 Thunderbit?

  • 兩步驟擷取: 只要點一下「AI 建議欄位」,Thunderbit 就會讀取頁面、建議欄位,並直接擷取資料——不用寫程式、不用選擇器,也不用頭痛。
  • 子頁面擷取: 先抓搜尋結果頁,再讓 Thunderbit 自動進入每個個人檔案補強資料表。
  • 即用模板: 已預先支援 LinkedIn、Amazon、Google Maps 等網站,幾秒內就能開始。
  • 免費匯出: 可直接輸出到 Excel、Google Sheets、Airtable、Notion,或下載成 CSV/JSON。
  • AI 自動填表: 自動處理表單填寫與重複性工作流程,特別適合銷售營運與 CRM 管理者。
  • 雲端或瀏覽器擷取: 可依你的情境與登入需求選擇模式。
  • 免維護: Thunderbit 的 AI 能適應 LinkedIn 版面變動,不需要你一直修壞掉的腳本。

Thunderbit 深受全球超過 10 萬名使用者信賴,並在 Chrome Web Store 擁有 4.4★ 評分()。對大多數商業使用者來說,它是擷取 LinkedIn 資料最快、也最安全的方法——不用冒著帳號或精神狀態出問題的風險。

進階技巧:如何擴充與自動化 LinkedIn 擷取流程

如果你已經準備好升級到更專業的做法,以下是擴大 LinkedIn 擷取規模的方法:

1. 排程腳本

  • cron(Linux/Mac)或 Task Scheduler(Windows)處理簡單任務
  • APSchedulerPrefect 3 進行 Python 原生排程與重試
  • Airflow 做企業級流程編排

2. 雲端部署

  • AWS Lambda(搭配容器化的 Playwright)
  • GCP Cloud Run
  • Railway / Fly.io / Render:方便部署 Playwright
  • Apify:適合擷取專用的雲端工作流程

3. 監控與變更偵測

  • Sentry 追蹤錯誤
  • 自訂警示,監控 429 錯誤暴增或 DOM 變動
  • 用 hash 比對偵測 LinkedIn 版面是否改動

4. CRM 整合

  • 使用 Salesforce、HubSpot、Notion 或 Airtable 的 API,自動把清理過的資料送進去
  • 建立流程:排程器 → 擷取器 → pandas 清理/去重 → 補資料 → 推送 CRM → 告警

5. 保持合規

  • 每個帳號每天不要擷取超過幾百個個人檔案
  • 輪換代理與 user agent
  • 隨時留意早期封鎖警訊,出現就暫停腳本

專業提醒: 即使有了這些自動化,LinkedIn 仍然可能、而且真的會改規則。最好永遠準備備案——對最關鍵的流程,也可以考慮直接用 Thunderbit。

結論與重點整理

到了 2026 年,用 Python 擷取 LinkedIn 既更強大,也更有風險。你只要記住以下幾點:

  • LinkedIn 是第一名的 B2B 資料來源——但同時也是防爬最嚴的網站之一。
  • Python 提供最高彈性,很適合 LinkedIn 資料提取,但封鎖風險高,而且需要持續維護。
  • Playwright 已經成為 LinkedIn 擷取的黃金標準——比 Selenium 更快,也更穩定。
  • 降低封鎖風險的關鍵在代理、延遲,以及模擬真人行為——手機代理存活率 85%,住宅代理 50%,資料中心 IP 幾乎是 0%。
  • 資料清理不可少——在匯入 CRM 前,務必使用 pandas、模糊比對與驗證函式庫。
  • Thunderbit 提供更安全、更快速的替代方案——具備 AI 擷取、子頁面補強、即時匯出,而且不用寫程式。
  • 擴大規模的關鍵是把一切都自動化——從排程、監控到 CRM 整合都一樣。

最重要的是:請以倫理且負責任的方式擷取資料。LinkedIn 的法務團隊可不是那種會跟你開玩笑的人。

如果你已經厭倦了和 LinkedIn 不斷變動的防線周旋, 吧。這就是我當初剛開始時希望就有的工具——它可能真的能幫你,以及你的 LinkedIn 帳號,省下很多痛苦。

想看更多深度內容?歡迎前往 ,閱讀更多關於網頁爬蟲、自動化與銷售營運最佳實務的指南。

試用 Thunderbit,加速 LinkedIn 擷取

常見問題

1. 2026 年用 Python 擷取 LinkedIn 合法嗎?
法律環境相當複雜。雖然 hiQ v. LinkedIn 案認定擷取公開資料不違反 CFAA,但 LinkedIn 仍然可以、而且確實會執行其禁止擷取的使用者協議。2025 年,LinkedIn 因擷取行為關閉了 Proxycurl,並限制了超過 3000 萬個帳號。請務必把這類腳本用於內部或教育用途,且絕對不要販售或公開散布擷取資料。

2. 自動化 LinkedIn 擷取最安全的方法是什麼?
使用老化帳號、手機代理(存活率 85%)、隨機延遲,並在上班時間進行擷取。不要使用資料中心 IP,也要隨時監測早期封鎖訊號。對大多數商業使用者來說,像 這類工具,風險比自己寫 Python 腳本低得多。

3. 2026 年擷取 LinkedIn 最好的 Python 函式庫是哪個?
Playwright 現在是預設首選——比 Selenium 更快、更穩,也更擅長處理 LinkedIn 的動態內容。若只是簡單的公開頁面,Requests + Beautiful Soup 仍然可用;但只要牽涉登入或 JavaScript,建議直接用 Playwright。

4. 擷取完 LinkedIn 資料後,要怎麼清理與格式化?
使用 pandas 做表格整理與去重、用 RapidFuzz 做模糊比對、用 phonenumbersemail-validator 處理聯絡資訊,再透過各自對應的 Python 函式庫匯出到 Excel、Google Sheets 或 CRM。

5. Thunderbit 如何改善 LinkedIn 資料提取?
Thunderbit 會用 AI 建議欄位、處理子頁面擷取,並把資料直接匯出到你常用的工具——完全不需要寫程式。它還能適應 LinkedIn 頻繁的版面變動,降低維護成本與被封鎖風險。此外,它可以免費試用,也已獲全球超過 10 萬名使用者信賴。

想親眼看看 LinkedIn 擷取怎麼運作,而且不想被搞得心很累嗎? ,兩下點擊就能開始擷取資料。你的銷售團隊(以及你的 LinkedIn 帳號)一定會感謝你。

延伸閱讀

Shuai Guan
Shuai Guan
Co-founder/CEO @ Thunderbit. Passionate about cross section of AI and Automation. He's a big advocate of automation and loves making it more accessible to everyone. Beyond tech, he channels his creativity through a passion for photography, capturing stories one picture at a time.
Topics
使用 Python 擷取 LinkedInLinkedIn 資料提取 PythonPython LinkedIn 爬蟲自動化 LinkedIn 擷取
目錄

試試 Thunderbit

只要 2 次點擊,就能抓取名單與其他資料。AI 驅動。

取得 Thunderbit 完全免費