En GitHub-søgning efter "linkedin scraper" giver pr. april 2026 cirka . De fleste spilder din tid. Hårdt sagt? Måske. Men det var konklusionen efter at have gennemgået otte af de mest synlige repos, læst snesevis af GitHub-issue-tråde og krydstjekket community-rapporter fra Reddit og scraping-fora. Mønstret går igen: repositories med mange stjerner tiltrækker opmærksomhed, LinkedIns anti-bot-team studerer koden, detektionsmetoder bliver patched, og brugerne ender med ødelagte selectors, CAPTCHA-løkker eller direkte kontoban. En Reddit-bruger beskrev situationen ret kontant — LinkedIn har tilføjet "strammere rate limits, bedre bot-detektion, session tracking og hyppige ændringer", og gamle værktøjer "går hurtigt i stykker eller får konti/IP’er markeret." Hvis du er sælger, rekrutterer eller opschef og leder efter LinkedIn-data i et regneark, er det repo, du klonede sidste måned, måske allerede dødt. Denne guide hjælper dig med at finde ud af, hvilke GitHub-projekter der faktisk er din tid værd, hvordan du undgår at få din konto brændt af, og hvornår det giver mere mening helt at springe koden over.
Hvad er en LinkedIn Scraper på GitHub?
Et GitHub-projekt med LinkedIn scraper er et open source-script — typisk Python, nogle gange Node.js — der automatiserer udtræk af strukturerede data fra LinkedIn-sider. De typiske mål inkluderer:
- Personprofiler: navn, overskrift, virksomhed, placering, færdigheder, erfaring
- Jobopslag: titel, virksomhed, placering, opslagets dato, job-URL
- Virksomhedssider: oversigt, antal ansatte, branche, antal følgere
- Opslag og engagement: indholdstekst, likes, kommentarer, delinger
Under motorhjelmen bruger de fleste repos en af to tilgange. Browserdrevne scrapers bygger på Selenium, Playwright eller Puppeteer til at gengive sider, klikke sig gennem flows og udtrække data via CSS-selectors eller XPath. En mindre gruppe forsøger at kalde LinkedIns interne (udokumenterede) API-endpoints direkte. Og en nyere bølge — stadig sjælden på GitHub, men voksende — kombinerer browserautomatisering med en LLM som GPT-4o mini til at omsætte sidetekst til strukturerede felter uden skrøbelige selectors.
Der er en grundlæggende mismatch mellem værktøj og målgruppe. Disse værktøjer bygges af udviklere, der er fortrolige med virtuelle miljøer, browser-afhængigheder og proxy-konfiguration. Men en stor del af dem, der søger på "linkedin scraper github", er rekrutteringsfolk, SDR’er, RevOps-ledere og founders, som bare vil have rækker i et regneark.
Det hul forklarer det meste af frustrationen i issue-trådene.
Hvorfor folk tyr til GitHub til LinkedIn-scraping
Appellen er åbenlys. Gratis. Kan tilpasses. Ingen vendor lock-in. Fuld kontrol over din data-pipeline. Hvis et SaaS-værktøj ændrer pris eller lukker, eksisterer din kode stadig.
| Use Case | Hvem har brug for det | Typiske data, der udtrækkes |
|---|---|---|
| Leadgenerering | Salgsteams | Navne, titler, virksomheder, profil-URL’er, spor af e-mail |
| Kandidatsøgning | Rekrutterere | Profiler, færdigheder, erfaring, lokationer |
| Markedsanalyse | Ops- og strategiteams | Virksomhedsdata, antal ansatte, jobopslag |
| Konkurrenceindsigt | Marketingteams | Opslag, engagement, virksomhedsopdateringer, ansættelsessignaler |
Men "gratis" er en licensbetegnelse, ikke en driftsomkostning. De reelle udgifter er:
- Opsætningstid: selv venlige repos kræver typisk 30 minutter til 2+ timer til miljøopsætning, browser-afhængigheder, cookie-udtræk og proxy-konfiguration
- Vedligeholdelse: LinkedIn ændrer jævnligt DOM’en og sine anti-bot-forsvar — en scraper, der virker i dag, kan være i stykker i næste uge
- Proxies: residential proxy-båndbredde koster afhængigt af udbyder og plan
- Kontorisiko: din LinkedIn-konto er det dyreste, der er på spil, og den kan ikke erstattes som en proxy-IP
Repo-helbredsscoren: Sådan vurderer du ethvert LinkedIn Scraper GitHub-projekt
De fleste lister over "bedste LinkedIn scraper" rangerer repos efter stjerner. Stjerner måler historisk interesse, ikke aktuel funktionalitet. Et repo med 3.000 stjerner og ingen commits siden 2022 er et museumseksemplar, ikke et produktionsværktøj.
Inden du kører git clone på noget som helst, så brug denne ramme:
| Kriterium | Hvorfor det betyder noget | Rødt flag |
|---|---|---|
| Seneste commit-dato | LinkedIn ændrer DOM ofte | > 6 måneder gammelt for browserdrevne repos |
| Forhold mellem åbne/lukkede issues | Maintainerens responsivitet | > 3:1 åbne i forhold til lukkede, især med nyere "blocked"- eller "CAPTCHA"-rapporter |
| Anti-detektion-funktioner | LinkedIn bannlyser aggressivt | Ingen omtale af cookies, sessions, pacing eller proxies i README |
| Autentificeringsmetode | 2FA og CAPTCHA bryder login flows | Understøtter kun password-baseret headless login |
| Licenstype | Juridisk eksponering ved kommerciel brug | Ingen licens eller tvetydige vilkår |
| Understøttede datatyper | Forskellige use cases kræver forskellige repos | Kun én datatype, når du har brug for flere |
Det enkelttrick, der sparer mest tid: Inden du binder dig til et repo, så søg i Issues-fanen efter "blocked", "banned", "CAPTCHA" eller "not working." Hvis de seneste issues er fyldt med de ord uden svar fra maintainere, så gå videre. Det repo har allerede tabt kampen.
Hvad 2026-gennemgangen faktisk fandt

Jeg anvendte dette scorecard på otte af de mest synlige LinkedIn scraper-repos på GitHub. Resultatet var ikke opløftende.
| Repo | Stjerner | Seneste commit | Virker i 2026? | Hovedområde | Vigtige noter |
|---|---|---|---|---|---|
| joeyism/linkedin_scraper | ~3.983 | Apr 2026 | ✅ Med forbehold | Profiler, virksomheder, opslag, jobs | Playwright-baseret omskrivning, genbrug af sessioner — men nylige issues viser sikkerhedsblokeringer og ødelagt jobsøgning |
| python-scrapy-playbook/linkedin-python-scrapy-scraper | ~111 | Jan 2026 | ✅ Til tutorials/offentlige data | Personer, virksomheder, jobs | ScrapeOps proxy-integration; gratis plan tillader 1.000 requests/måned med 1 tråd |
| spinlud/py-linkedin-jobs-scraper | ~472 | Mar 2025 | ⚠️ Kun jobs | Jobs | Cookie-understøttelse, eksperimentel proxy-tilstand — nyttig, hvis du kun har brug for offentlige jobopslag |
| madingess/EasyApplyBot | ~170 | Mar 2025 | ⚠️ Forkert værktøj | Easy Apply-automatisering | Ikke en data scraper — automatiserer jobansøgninger |
| linkedtales/scrapedin | ~611 | May 2021 | ❌ | Profiler | README siger stadig "working in 2020"; issues viser pin-verificering og HTML-ændringer |
| austinoboyle/scrape-linkedin-selenium | ~526 | Oct 2022 | ❌ | Profiler, virksomheder | Engang nyttig, men alt for forældet til 2026 |
| eilonmore/linkedin-private-api | ~291 | Jul 2022 | ❌ | Profiler, jobs, virksomheder, opslag | Private API-wrapper; udokumenterede endpoints ændrer sig uforudsigeligt |
| nsandman/linkedin-api | ~154 | Jul 2019 | ❌ | Profiler, messaging, søgning | Historisk interessant; dokumenterede rate limiting efter ca. 900 requests/time |
Kun 2 ud af 8 repos virkede reelt brugbare for en læser i 2026 uden tunge forbehold. Det forhold er ikke usædvanligt — det er normalen for LinkedIn-scraping på GitHub.
Ban-undgåelsesplaybook: Proxies, rate limits og kontosikkerhed
Kontoban er den største operationelle risiko. Selv teknisk kompetente scrapers fejler her. Koden virker; kontoen gør ikke. Brugere rapporterer at blive markeret efter så få som trods proxies og lange pauser.
Rate limiting: Hvad communityet rapporterer

Der findes ikke noget garanteret sikkert tal. LinkedIn vurderer sessionsalder, klik-timing, burst-mønstre, IP-omdømme og kontoadfærd — ikke bare rå volumen. Community-data samler sig omkring disse niveauer:
- En bruger rapporterede detektion efter 40–80 profiler med proxies og 33 sekunders pacing
- En anden anbefalede at holde sig omkring 30 profiler/dag/konto
- En mere aggressiv operatør hævdede fordelt over dagen
- dokumenterede en intern advarsel om rate limit efter ca. 900 requests på en time
Den praktiske syntese: under 50 profilvisninger/dag/konto er lavrisikozonen. 50–100/dag er mellemrisiko, hvor sessionskvalitet betyder meget. Over 100/dag/konto er i stigende grad aggressivt territorium.
Proxy-strategi: Residential vs. datacenter
Residential proxies er stadig standarden til LinkedIn, fordi de ligner normal trafik fra slutbrugere. Datacenter-IP’er er billigere, men bliver hurtigere markeret på sofistikerede sites — og LinkedIn er netop den slags site, hvor billig trafik bliver opdaget.
Aktuel prisramme:
- : $3,00–$4,00/GB afhængigt af plan
- : $4,00–$6,00/GB afhængigt af plan
Rotér per session, ikke per request. Rotation pr. request skaber et fingerprint, der råber "proxy-infrastruktur" højere, end nogen enkelt IP ville gøre.
Burner-konto-protokol
Communityets råd er lige ud ad landevejen: behandl ikke din primære LinkedIn-konto som en engangs-scraping-infrastruktur.
Hvis du insisterer på konto-baseret scraping:
- Brug en separat konto fra din primære professionelle identitet
- Udfyld profilen helt og lad den opføre sig som et menneske i dagevis, før du scraper
- Tilknyt aldrig dit rigtige telefonnummer til scraping-konti
- Hold scraping-sessioner helt adskilt fra reel outreach og messaging
Værd at bemærke: LinkedIns (gældende fra 3. november 2025) forbyder udtrykkeligt falske identiteter og deling af konti. Burner-konto-taktikken er almindelig i praksis, men juridisk/kontraktuelt rodet.
Håndtering af CAPTCHA’er
En CAPTCHA er ikke bare en irritation. Det er et signal om, at din session allerede er under lup. Muligheder inkluderer:
- Manuel udfyldning for at fortsætte en session
- Genbrug af cookies i stedet for at køre login-flows igen
- Solver-tjenester som (~$0,50–$1,00 pr. 1.000 billed-CAPTCHA’er, ~$1,00–$2,99 pr. 1.000 reCAPTCHA v2-løsninger)
Men hvis din workflow rutinemæssigt udløser CAPTCHA’er, er økonomien i solver-tjenester det mindste af dine problemer. Din stack taber stealth-kampen.
Risikoskalaen
| Volumen | Risikoniveau | Anbefalet tilgang |
|---|---|---|
| < 50 profiler/dag | Lavere | Browser-session eller cookie-genbrug, langsomt tempo, ingen aggressiv automatisering |
| 50–500 profiler/dag | Middel til høj | Residential proxies, varme konti, session-genbrug, randomiserede pauser |
| 500+/dag | Meget høj | Kommercielle APIs eller vedligeholdt tooling med indbygget anti-detektion; offentlige GitHub-repos alene er som regel ikke nok |
Open source-paradokset: Hvorfor populære LinkedIn Scraper GitHub-repos går hurtigere i stykker
Brugere rejser en fair bekymring: "At lave en open source-version betyder bare, at LinkedIn kan kigge på, hvad I gør, og forhindre det." Den bekymring er ikke paranoid. Den er strukturelt korrekt.
Synlighedsproblemet
Høje stjernetal skaber to signaler på én gang: tillid for brugerne og et mål for LinkedIns sikkerhedsteam. Jo mere populært et repo bliver, jo større er sandsynligheden for, at LinkedIn målrettet modarbejder dets metoder.
Du kan se denne livscyklus i audit-dataene. linkedtales/scrapedin var markant nok til at reklamere med, at det virkede med LinkedIns "new website" i 2020. Men repoet fulgte ikke med senere ændringer i verificering og layout. nsandman/linkedin-api dokumenterede nyttige tricks dengang, men seneste commit ligger flere år før det nuværende anti-bot-miljø.
Fordelen ved community-patches
Open source har stadig én reel fordel: aktive maintainere og bidragydere kan rette hurtigt, når LinkedIn ændrer forsvar. joeyism/linkedin_scraper er det klareste eksempel fra denne gennemgang — det kaster stadig blocked-auth og broken-search issues af sig, men det bevæger sig i det mindste. Forks implementerer ofte nyere undvigelsesteknikker hurtigere end det oprindelige repo.
Hvad du bør gøre ved det
- Stol ikke på ét offentligt repo som permanent infrastruktur
- Hold øje med aktive forks, der implementerer opdaterede undvigelsesteknikker
- Overvej at vedligeholde en privat fork til produktionsbrug (så dine specifikke tilpasninger ikke bliver offentlige)
- Forvent at ændre metode, når LinkedIn ændrer detektion eller UI-adfærd
- Diversificér tilgange i stedet for at satse alt på ét værktøj
AI-drevet udtræk vs. CSS-selectors: En praktisk sammenligning

Det mere interessante tekniske skel i 2026 er ikke GitHub versus no-code. Det er selector-baseret udtræk versus semantisk udtræk — og forskellen betyder mere, end de fleste opsummeringer indrømmer.
Sådan virker CSS-selectors (og går i stykker)
Traditionelle scrapers inspicerer LinkedIns DOM og mapper hvert felt til en CSS-selector eller XPath-udtryk. Når sidens struktur er stabil, er tilgangen fremragende: høj præcision, lav marginalomkostning, meget hurtig parsing.
Fejltilstanden er lige så tydelig. LinkedIn ændrer klassenavne, nesting, lazy-loading-adfærd eller gemmer indhold bag andre auth-walls — og så bryder scraperen straks sammen. Issue-titlerne i repository-auditet fortæller historien: "changed HTML," "broken job search," "missing values," "authwall blocks."
Sådan virker AI/LLM-udtræk
Det nyere mønster er enklere i konceptet: gengiv siden, indsamle den synlige tekst, og bed en model om at levere strukturerede felter. Det er logikken bag mange no-code AI-scrapere og nogle nyere custom workflows.
Med den aktuelle ($0,15/1M input tokens, $0,60/1M output tokens) koster en ren tekst-baseret ekstraktionsrunde for én profil typisk $0,0006–$0,0018 pr. profil. Det er så lidt, at det er næsten ligegyldigt i workflows med mellemvolumen.
Sammenligning side om side
| Dimension | CSS Selector / XPath | AI/LLM-udtræk |
|---|---|---|
| Opsætningsarbejde | Højt — inspicér DOM, skriv selectors pr. felt | Lavt — beskriv ønsket output i naturligt sprog |
| Brud ved layoutændringer | Går straks i stykker | Tilpasser sig automatisk (læser semantisk) |
| Præcision på strukturerede felter | ~99 % når selectors er korrekte | ~95–98 % (lejlighedsvise fortolkningsfejl fra LLM) |
| Håndtering af ustrukturerede/variable data | Svag uden speciallogik | Stærk — AI fortolker konteksten |
| Pris pr. profil | Næsten nul (kun compute) | ~$0,001–$0,002 (API-tokenomkostning) |
| Labeling/kategorisering | Kræver separat efterbehandling | Kan kategorisere, oversætte og label’e i én omgang |
| Vedligeholdelsesbyrde | Løbende selector-fixes | Næsten nul |
Hvad skal du vælge?
Til meget store, stabile pipelines ejet af engineering kan selector-baseret parsing stadig vinde på pris. For de fleste små og mellemstore brugere, der scraper hundreder (ikke millioner) af profiler, er AI-udtræk den bedre langsigtede investering, fordi LinkedIns layoutændringer koster mere i udviklertid, end de modeltokens du sparer.
Når GitHub-repos er overkill: No-code-vejen
De fleste, der søger på "linkedin scraper github", vil ikke blive maintainere af browserautomatisering.
De vil have rækker i en tabel.
Brugere klager direkte over brugervenligheden af GitHub-scrapere i issue-tråde: "It does not handle 2FA and it is not easy to use since there is no UI." Målgruppen inkluderer rekrutterere, SDR’er og ops-managere — ikke kun Python-udviklere.
Build vs. buy-beslutningen
| Faktor | GitHub-repo | No-code-værktøj (fx Thunderbit) |
|---|---|---|
| Opsætningstid | 30 min–2+ timer (Python, dependencies, proxies) | Under 2 minutter (installer extension, klik) |
| Vedligeholdelse | Du retter det, når LinkedIn ændrer sig | Værktøjsudbyderen håndterer opdateringer |
| Anti-detektion | Du konfigurerer proxies, delays, sessions | Indbygget i værktøjet |
| Datastrukturering | Du skriver parsing-logik | AI foreslår automatisk felter |
| Eksportmuligheder | Du bygger eksport-pipeline | Ét klik til Excel, Google Sheets, Airtable, Notion |
| Pris | Gratis repo + proxy-omkostninger + din tid | Gratis niveau tilgængeligt; kreditbaseret ved større volumen |
Sådan håndterer Thunderbit LinkedIn-scraping uden kode
angriber problemet anderledes end GitHub-repos. I stedet for at skrive selectors eller konfigurere browserautomatisering:
- Installer
- Gå til en hvilken som helst LinkedIn-side (søgeresultater, profil, virksomhedsside)
- Klik på "AI Suggest Fields" — Thunderbits AI læser siden og foreslår strukturerede kolonner (navn, titel, virksomhed, placering osv.)
- Justér kolonnerne, hvis det er nødvendigt, og klik derefter for at udtrække
- Eksportér direkte til Excel, Google Sheets, eller Notion
Fordi Thunderbit bruger AI til at læse siden semantisk hver gang, bryder det ikke, når LinkedIn ændrer sin DOM. Det er samme fordel som GPT-integreret tilgang i custom Python-scripts, men pakket ind i en no-code extension i stedet for en kodebase, du selv skal vedligeholde.
Til — hvor du klikker ind på individuelle profiler fra en søgeresultatliste for at berige dit datasæt — håndterer Thunderbit det automatisk. Browser-tilstand virker på sider, der kræver login, uden separat proxy-konfiguration.
Hvem bør stadig bruge et GitHub-repo?
GitHub-repos giver stadig mening for:
- Udviklere, der har brug for dyb tilpasning eller usædvanlige datatyper
- Teams, der scraper i meget høj volumen, hvor pris pr. kredit betyder noget
- Brugere, der skal køre scraping i CI/CD-pipelines eller på servere
- Folk, der bygger LinkedIn-data ind i større automatiserede workflows
For alle andre — især salg, rekruttering og ops-teams — eliminerer hele setup- og vedligeholdelsescyklussen.
Trin for trin: Sådan vurderer og bruger du en LinkedIn Scraper fra GitHub
Hvis du har besluttet, at GitHub er den rigtige vej, får du her en trinvis workflow, der minimerer spildtid og kontorisiko.
Trin 1: Søg og udvælg repos
Søg på GitHub efter "linkedin scraper" og filtrér efter:
- Senest opdateret (sidste 6 måneder)
- Sprog, der passer til din stack (Python er mest almindeligt)
- Omfang, der matcher dit reelle behov (profiler vs. jobs vs. virksomheder)
Lav en shortlist med 3–5 repos, der ser levende ud.
Trin 2: Anvend repo-helbredsscoren
Kør hvert repo gennem scorecardet fra tidligere. Fjern alt med:
- Ingen commits det seneste år
- Uafklarede "blocked"- eller "CAPTCHA"-issues
- Kun password-baseret autentificering
- Ingen omtale af sessions, cookies eller proxies
Trin 3: Sæt dit miljø op
Typiske setup-kommandoer fra repos i denne gennemgang:
1pip install linkedin-scraper
2playwright install chromium
3pip install linkedin-jobs-scraper
4LI_AT_COOKIE=<cookie> python your_app.py
5scrapy crawl linkedin_people_profile
De tilbagevendende friktionspunkter:
- Manglende
session.json-filer - Mismatch i browser-driver-versioner (Chromium/Playwright)
- Cookie-udtræk fra browser DevTools
- Timeouts ved proxy-autentificering
Trin 4: Kør en lille test-scrape
Start med 10–20 profiler. Tjek:
- Er felterne korrekt parseret?
- Er data komplet?
- Ramte du nogen sikkerhedskontroller?
- Er outputformatet brugbart eller bare rå JSON-støj?
Trin 5: Skaler forsigtigt
Tilføj randomiserede pauser (5–15 sekunder mellem requests), lavere concurrency, genbrug af sessioner og residential proxies. Spring ikke direkte til hundreder af profiler/dag på en frisk konto.
Trin 6: Eksportér og strukturér dine data
De fleste GitHub-repos outputter rå JSON eller CSV. Du skal stadig:
- Fjerne dubletter
- Normalisere titler og firmanavne
- Mappe felter til dit CRM eller ATS
- Dokumentere datakilde til compliance
(Thunderbit håndterer strukturering og eksport automatisk, hvis du hellere vil springe dette trin over.)
LinkedIn Scraper GitHub vs. no-code-værktøjer: Den fulde sammenligning
| Dimension | GitHub-repo (CSS-selectors) | GitHub-repo (AI/LLM) | No-code-værktøj (Thunderbit) |
|---|---|---|---|
| Opsætningstid | 1–2+ timer | 1–3+ timer (+ API-nøgle) | Under 2 minutter |
| Tekniske færdigheder | Høje (Python, CLI) | Høje (Python + LLM APIs) | Ingen |
| Vedligeholdelse | Høj (selectors går i stykker) | Mellem (LLM tilpasser sig, men koden kræver stadig opdateringer) | Ingen (udbyderen vedligeholder) |
| Anti-detektion | DIY (proxies, delays) | DIY | Indbygget |
| Præcision | Høj, når det virker | Høj med lejlighedsvise LLM-fejl | Høj (AI-drevet) |
| Pris | Gratis + proxy-omkostninger + din tid | Gratis + LLM API-omkostninger + proxy-omkostninger | Gratis niveau; kreditbaseret ved større volumen |
| Eksport | DIY (JSON, CSV) | DIY | Excel, Sheets, Airtable, Notion |
| Bedst til | Udviklere, custom pipelines | Udviklere, der vil have lavere vedligeholdelse | Salg, rekruttering, ops-teams |
Juridiske og etiske overvejelser
Jeg holder denne del kort, men den kan ikke springes over.
LinkedIns (gældende fra 3. november 2025) forbyder udtrykkeligt brug af software, scripts, robots, crawlers eller browser-plugins til at scrape tjenesten. LinkedIn har fulgt op med håndhævelse:
- : LinkedIn offentliggjorde retlige skridt mod Proxycurl
- : LinkedIn sagde, at sagen var afsluttet
- : Law360 rapporterede, at LinkedIn sagsøgte yderligere sagsøgte over data scraping i industriel skala
hiQ v. LinkedIn-linjen af sager skabte en vis nuance omkring adgang til offentlige data, men faldt ud til LinkedIns fordel i kontraktbrudsteorier. "Offentligt synligt" betyder ikke "klart sikkert at scrape i stor skala til kommerciel genbrug."
For EU-relaterede workflows gælder . fra den franske datamyndighed er et konkret eksempel på, at myndigheder behandler scraped LinkedIn-data som persondata underlagt databeskyttelsesregler.
At bruge et vedligeholdt værktøj som Thunderbit ændrer ikke dine juridiske forpligtelser. Men det reducerer risikoen for utilsigtet at udløse sikkerhedsreaktioner eller overskride rate limits på en måde, der tiltrækker LinkedIns opmærksomhed.
Hvad virker og hvad virker ikke i 2026
Hvad virker
- At anvende Repo-helbredsscoren, før du binder dig til et repo
- Genbrug af cookies/sessioner i stedet for gentagne automatiske login
- Residential proxies, når du er nødt til at køre konto-baseret scraping
- Mindre, langsommere, mere menneskelignende scraping-workflows
- AI-assisteret udtræk, når du værdsætter tilpasningsevne højere end marginal token-pris
- , når det reelle behov er output til regneark, ikke ejerskab af scraperen
- At diversificere tilgange i stedet for at satse på ét offentligt repo
Hvad ikke virker
- At klone repos med mange stjerner uden at tjekke vedligeholdelsesstatus eller nyere issues
- At bruge datacenter-proxies eller gratis proxy-lister til LinkedIn
- At skalere til hundreder af profiler/dag uden rate limits eller anti-detektion
- At basere sig på CSS-selectors på lang sigt uden en vedligeholdelsesplan
- At behandle din rigtige LinkedIn-konto som engangsinfrastruktur
- At forveksle "offentligt tilgængelig" med "kontraktuelt eller juridisk uproblematisk"
FAQ
Virker LinkedIn scraper GitHub-repos stadig i 2026?
Nogle gør, men kun et lille udsnit. I denne gennemgang af otte synlige repos så kun to reelt brugbare ud for en læser i 2026 uden tunge forbehold. Nøglen er at vurdere repos efter vedligeholdelsesaktivitet og issue-helbred, ikke efter antal stjerner. Brug Repo-helbredsscoren, før du bruger tid på opsætning i et projekt.
Hvor mange LinkedIn-profiler kan jeg scrape pr. dag uden at blive bannet?
Der findes ikke et garanteret sikkert tal, fordi LinkedIn vurderer session-adfærd, ikke kun volumen. Community-rapporter peger på, at under 50 profiler/dag/konto er lavrisikozonen, 50–100/dag er mellemrisiko, hvor infrastrukturen betyder meget, og over 100/dag bliver stadig mere aggressivt. Randomiserede pauser på 5–15 sekunder og residential proxies hjælper, men fjerner ikke risikoen helt.
Findes der et no-code-alternativ til LinkedIn scraper GitHub-projekter?
Ja. lader dig scrape LinkedIn-sider med få klik ved hjælp af AI-drevet feltgenkendelse, browserbaseret login (ingen proxy-konfiguration nødvendig) og eksport med ét klik til Excel, Google Sheets, Airtable eller Notion. Det er designet til salg, rekruttering og ops-teams, der vil have data uden at vedligeholde kode. Du kan prøve det via .
Er scraping af LinkedIn-data lovligt?
Det er et gråt område med stadig skarpere kanter. LinkedIns User Agreement forbyder udtrykkeligt scraping, og LinkedIn har ført retssager mod scrapers i . hiQ v. LinkedIn-præcedensen om adgang til offentlige data er blevet indsnævret af nyere afgørelser. GDPR gælder for persondata om EU-borgere, uanset hvordan de indsamles. For enhver kommerciel brug bør du få juridisk rådgivning, der passer til din konkrete situation.
AI-udtræk eller CSS-selectors — hvad skal jeg bruge til LinkedIn-scraping?
CSS-selectors er hurtigere og billigere pr. record, når de virker, men de skaber et vedligeholdelsesmaraton, fordi LinkedIn jævnligt ændrer sin DOM. AI/LLM-udtræk koster lidt mere pr. profil (~$0,001–$0,002 ved aktuelle ) men tilpasser sig automatisk layoutændringer. For de fleste ikke-enterprise-brugere, der scraper hundreder snarere end millioner af profiler, er AI-udtræk den bedre langsigtede investering. Thunderbits indbyggede AI-motor giver denne fordel uden at du behøver at skrive eller vedligeholde kode.
Læs mere
