LinkedIn Scraper GitHub: Hva som fungerer i 2026 (og hva som ikke gjør det)

Sist oppdatert April 22, 2026

Et GitHub-søk etter "linkedin scraper" gir rundt per april 2026. De fleste kommer bare til å sløse bort tiden din. Hardt sagt? Kanskje. Men det er det jeg fant etter å ha gått gjennom åtte av de mest synlige repoene, lest dusinvis av GitHub issue-tråder og sammenlignet funnene med rapporter fra Reddit og scraping-forum. Mønsteret går igjen: repoer med mange stjerner trekker til seg oppmerksomhet, LinkedIns anti-bot-team studerer koden, deteksjonen oppdateres, og brukerne sitter igjen med ødelagte selektorer, CAPTCHA-løkker eller direkte kontobanning. Én Reddit-bruker beskrev situasjonen rett ut — LinkedIn har lagt til «strammere rate limits, bedre botdeteksjon, sessionsporing og hyppige endringer», og gamle verktøy «slutter raskt å fungere eller får kontoer/IP-er flagget». Hvis du er selger, rekrutterer eller driftsleder og trenger LinkedIn-data i et regneark, kan repoet du klonet forrige måned allerede være dødt. Denne guiden er laget for å hjelpe deg å finne ut hvilke GitHub-prosjekter som faktisk er verdt tiden din, hvordan du unngår at kontoen din blir brent, og når det gir mer mening å droppe koden helt.

Hva er en LinkedIn Scraper på GitHub?

Et GitHub-prosjekt for LinkedIn scraping er et åpent kildekode-skript — vanligvis Python, noen ganger Node.js — som automatiserer uthenting av strukturert data fra LinkedIn-sider. Typiske mål inkluderer:

  • Personprofiler: navn, tittel, selskap, sted, ferdigheter, erfaring
  • Stillingsannonser: tittel, selskap, sted, publiseringsdato, jobb-URL
  • Bedriftssider: oversikt, antall ansatte, bransje, antall følgere
  • Innlegg og engasjement: innholdstekst, likerklikk, kommentarer, delinger

Under panseret bruker de fleste repoer én av to tilnærminger. Nettleserbaserte scrapers bruker Selenium, Playwright eller Puppeteer til å rendere sider, klikke seg gjennom flyter og hente ut data via CSS-selektorer eller XPath. En mindre gruppe prøver å kalle LinkedIns interne (udokumenterte) API-endepunkter direkte. Og en nyere bølge — fortsatt sjelden på GitHub, men voksende — kombinerer nettleserautomatisering med en LLM som GPT-4o mini for å tolke sidetekst til strukturerte felter uten skjøre selektorer.

Det er et grunnleggende misforhold mellom verktøy og bruker. Disse verktøyene lages av utviklere som er komfortable med virtuelle miljøer, nettleseravhengigheter og proxy-konfigurasjon. Men en stor andel av dem som søker på "linkedin scraper github" er rekrutterere, SDR-er, RevOps-ledere og gründere som bare vil ha rader i et regneark.

Det forklarer det meste av frustrasjonen i issue-trådene.

Hvorfor folk tyr til GitHub for LinkedIn scraping

Fordelen er åpenbar. Gratis. Kan tilpasses. Ingen leverandørbinding. Full kontroll over datarøret ditt. Hvis et SaaS-verktøy endrer priser eller legges ned, finnes koden din fortsatt.

BruksområdeHvem trenger detTypiske data som hentes ut
LeadgenereringSalgsteamNavn, titler, selskaper, profil-URL-er, hint om e-post
KandidatsøkRekrutterereProfiler, ferdigheter, erfaring, steder
MarkedsanalyseDrift- og strategiteamBedriftsdata, antall ansatte, stillingsannonser
KonkurrentanalyseMarkedsføringsteamInnlegg, engasjement, bedriftsoppdateringer, ansettelsessignaler

Men «gratis» er en lisensetikett, ikke driftskostnaden. De reelle kostnadene er:

  • Oppsettstid: selv vennlige repoer krever som regel 30 minutter til over 2 timer for miljøoppsett, nettleseravhengigheter, cookie-uthenting og proxy-konfigurasjon
  • Vedlikehold: LinkedIn endrer DOM-en og anti-bot-forsvaret sitt jevnlig — en scraper som virker i dag kan ryke neste uke
  • Proxies: residential proxy-båndbredde koster avhengig av leverandør og plan
  • Kontorisiko: LinkedIn-kontoen din er det mest verdifulle som står på spill, og den kan ikke erstattes som en proxy-IP

Repo-helsekortet: Slik vurderer du ethvert LinkedIn Scraper GitHub-prosjekt

De fleste «beste LinkedIn scraper»-lister rangerer repoer etter antall stjerner. Stjerner måler historisk interesse, ikke om verktøyet faktisk fungerer nå. Et repo med 3 000 stjerner og ingen commits siden 2022 er en museumsgenstand, ikke et produksjonsverktøy.

Før du kjører git clone på noe som helst, bruk dette rammeverket:

KriteriumHvorfor det er viktigVarsellampe
Dato for siste commitLinkedIn endrer DOM ofte> 6 måneder siden for nettleserbaserte repoer
Forhold mellom åpne/lukkede issuesHvor responsiv vedlikeholderen er> 3:1 åpne-lukkede, spesielt med nyere rapporter om «blocked» eller «CAPTCHA»
Anti-deteksjonsfunksjonerLinkedIn slår hardt ned på scrapingIngen omtale av cookies, sesjoner, pacing eller proxies i README
Autentiseringsmetode2FA og CAPTCHA ødelegger innloggingsflyterStøtter bare passordbasert headless-innlogging
LisenstypeJuridisk risiko ved kommersiell brukIngen lisens eller uklare vilkår
Støttede datatyperUlike behov krever ulike repoerBare én datatypen når du trenger flere

Det ene trikset som sparer mest tid: Før du binder deg til et repo, søk i Issues-fanen etter «blocked», «banned», «CAPTCHA» eller «not working». Hvis nylige issues er fulle av slike ord uten respons fra vedlikeholderen, gå videre. Det repoet har allerede tapt kampen.

Hva revisjonen i 2026 faktisk fant

linkedin_scraper_repo_audit_v2_17d346a6d6.png

Jeg brukte dette kortet på åtte av de mest synlige LinkedIn scraper-repoene på GitHub. Resultatet var ikke oppmuntrende.

RepoStjernerSiste commitFungerer i 2026?HovedområdeViktige notater
joeyism/linkedin_scraper~3 983Apr 2026✅ Med forbeholdProfiler, selskaper, innlegg, jobberPlaywright-basert omskriving, gjenbruk av sesjoner — men nylige issues viser sikkerhetsblokker og ødelagt jobbsøk
python-scrapy-playbook/linkedin-python-scrapy-scraper~111Jan 2026✅ For opplæringsmateriell/offentlige dataPersoner, selskaper, jobberScrapeOps proxy-integrasjon; gratisplanen tillater 1 000 forespørsler/måned med 1 tråd
spinlud/py-linkedin-jobs-scraper~472Mar 2025⚠️ Kun jobberJobberCookie-støtte, eksperimentell proxy-modus — nyttig hvis du bare trenger offentlige stillingsannonser
madingess/EasyApplyBot~170Mar 2025⚠️ Feil verktøyAutomatisering av Easy ApplyIkke en data-scraper — automatiserer jobbsøknader
linkedtales/scrapedin~611Mai 2021ProfilerREADME sier fortsatt «working in 2020»; issues viser PIN-verifisering og HTML-endringer
austinoboyle/scrape-linkedin-selenium~526Okt 2022Profiler, selskaperEn gang nyttig, nå for utdatert til 2026
eilonmore/linkedin-private-api~291Jul 2022Profiler, jobber, selskaper, innleggWrapper for privat API; udokumenterte endepunkter endrer seg uforutsigbart
nsandman/linkedin-api~154Jul 2019Profiler, meldinger, søkHistorisk interessant; dokumenterte rate limits etter omtrent 900 forespørsler/time

Bare 2 av 8 repoer så faktisk brukbare ut for en leser i 2026 uten store forbehold. Det forholdet er ikke uvanlig — det er normalen for LinkedIn scraping på GitHub.

Ban-forebygging: Proxies, rate limits og kontosikkerhet

Kontobanning er den største operative risikoen. Selv teknisk dyktige scrapers feiler her. Koden fungerer; kontoen gjør det ikke. Brukere rapporterer å bli flagget etter så lite som selv med proxies og lange pauser.

Rate limiting: Hva fellesskapet rapporterer

linkedin_scraper_risk_spectrum_v2_a602c90b7d.png

Det finnes ikke noe garantert trygt tall. LinkedIn vurderer sesjonsalder, klikk-timing, burst-mønstre, IP-omdømme og kontoadferd — ikke bare rå volum. Fellesskapsdata samler seg rundt disse nivåene:

  • Én bruker rapporterte deteksjon etter 40–80 profiler med proxies og 33 sekunders pacing
  • En annen anbefalte å holde seg rundt 30 profiler/dag/konto
  • En mer aggressiv operatør hevdet fordelt utover dagen
  • dokumenterte en intern advarsel om rate limit etter omtrent 900 forespørsler på én time

Den praktiske oppsummeringen: under 50 profilvisninger/dag/konto er lavrisikosonen. 50–100/dag er middels risiko, der kvaliteten på sesjonen betyr mye. Over 100/dag/konto blir det stadig mer aggressivt.

Proxy-strategi: Residential vs. datacenter

Residential proxies er fortsatt standarden for LinkedIn fordi de ligner normal trafikk fra sluttbrukere. Datacenter-IP-er er billigere, men blir flagget raskere på avanserte nettsteder — og LinkedIn er nettopp et slikt nettsted hvor billig trafikk blir lagt merke til.

Dagens prisbilde:

  • : $3,00–$4,00/GB avhengig av plan
  • : $4,00–$6,00/GB avhengig av plan

Roter per sesjon, ikke per forespørsel. Rotasjon per forespørsel skaper et fingeravtrykk som roper «proxy-infrastruktur» høyere enn én enkelt IP ville gjort.

Protocol for brennerkontoer

Rådet fra fellesskapet er tydelig: Ikke behandle din primære LinkedIn-konto som engangsinfrastruktur for scraping.

Hvis du likevel vil bruke kontobasert scraping:

  • Bruk en separat konto, adskilt fra din primære profesjonelle identitet
  • Fullfør profilen og la den oppføre seg som et menneske i noen dager før scraping
  • Aldri koble ditt ekte telefonnummer til scraping-kontoer
  • Hold scraping-øktene helt adskilt fra ekte outreach og meldinger

Verdt å merke seg: LinkedIns (gjeldende fra 3. november 2025) forbyr eksplisitt falske identiteter og deling av kontoer. Brennerkonto-taktikken er operasjonelt vanlig, men kontraktuelt rotete.

Håndtering av CAPTCHA-er

En CAPTCHA er ikke bare en irritasjon. Det er et signal om at sesjonen din allerede er under oppsikt. Alternativer inkluderer:

  • Manuell fullføring for å fortsette en sesjon
  • Gjenbruk av cookies i stedet for å kjøre innloggingsflyten på nytt
  • Løsetjenester som (~$0,50–$1,00 per 1 000 bilde-CAPTCHA-er, ~ $1,00–$2,99 per 1 000 reCAPTCHA v2-løsninger)

Men hvis arbeidsflyten din stadig utløser CAPTCHA-er, er økonomien i løsetjenester det minste problemet ditt. Stakken din taper stealth-kampen.

Risikospekteret

VolumRisikonivåAnbefalt tilnærming
< 50 profiler/dagLavereNettlesersesjon eller gjenbruk av cookies, rolig pacing, ingen aggressiv automatisering
50–500 profiler/dagMiddels til høyResidential proxies, «varmede» kontoer, gjenbruk av sesjoner, tilfeldige forsinkelser
500+/dagSvært høyKommersielle API-er eller vedlikeholdte verktøy med innebygd anti-deteksjon; offentlige GitHub-repoer er vanligvis ikke nok

Open source-paradokset: Hvorfor populære LinkedIn Scraper GitHub-repoer bryter raskere

Brukere tar opp en legitim bekymring: «Hvis dere lager en åpen kildekode-versjon, kan jo LinkedIn bare se hva dere gjør og stoppe det.» Den bekymringen er ikke paranoid. Den er strukturelt riktig.

Synlighetsproblemet

Høyt stjernetal skaper to signaler samtidig: tillit for brukere og et mål for LinkedIns sikkerhetsteam. Jo mer populært et repo blir, desto større er sjansen for at LinkedIn spesifikt motarbeider metodene det bruker.

Du ser denne livssyklusen i revisjonsdataene. linkedtales/scrapedin var betydningsfullt nok til å markedsføre at det fungerte med LinkedIns «nye nettsted» i 2020. Men repoet klarte ikke å følge med på senere verifiserings- og layoutendringer. nsandman/linkedin-api dokumenterte nyttige triks en gang, men siste commit kom flere år før dagens anti-bot-miljø.

Fordelen med fellesskapspatcher

Open source har likevel én reell fordel: aktive vedlikeholdere og bidragsytere kan patche raskt når LinkedIn endrer forsvar. joeyism/linkedin_scraper er hovedeksemplet i denne gjennomgangen — det får fortsatt opp blocked-auth og ødelagte søk, men det beveger seg i det minste. Forks implementerer ofte nyere omgåelsesteknikker raskere enn originalrepoet.

Hva du bør gjøre med det

  • Ikke stol på ett enkelt offentlig repo som permanent infrastruktur
  • Se etter aktive forks som implementerer oppdaterte omgåelsesteknikker
  • Vurder å vedlikeholde en privat fork for produksjonsbruk (slik at dine spesifikke tilpasninger ikke blir offentlige)
  • Forvent å måtte endre metode når LinkedIn endrer deteksjon eller UI-atferd
  • Diversifiser tilnærmingene i stedet for å satse alt på ett verktøy

AI-drevet uthenting vs. CSS-selektorer: En praktisk sammenligning

linkedin_scraper_selectors_vs_ai_v2_2d42fbf5c4.png

Det mer interessante tekniske skillet i 2026 er ikke GitHub versus no-code. Det er selektorbasert uthenting versus semantisk uthenting — og forskjellen betyr mer enn de fleste oversikter erkjenner.

Hvordan CSS-selektorer fungerer (og brekker)

Tradisjonelle scrapers inspiserer LinkedIns DOM og mapper hvert felt til en CSS-selektor eller XPath-uttrykk. Når siden er stabil, er tilnærmingen utmerket: høy presisjon, lav marginalkostnad, svært rask parsing.

Feilmodusen er like åpenbar. LinkedIn endrer klassenavn, nestingsstruktur, lazy-loading-atferd eller sperrer innhold bak andre auth-walls — og scraperen ryker umiddelbart. Issue-titlene i reposjekken forteller historien: «changed HTML», «broken job search», «missing values», «authwall blocks».

Hvordan AI/LLM-uthenting fungerer

Det nyere mønsteret er enklere i konsept: rendér siden, hent den synlige teksten, og be en modell om å levere strukturerte felter. Det er logikken bak mange no-code AI-scrapere og noen nyere egendefinerte arbeidsflyter.

Med dagens ($0,15/1M input tokens, $0,60/1M output tokens) koster ett tekstbasert uthentingspass for én profil typisk $0,0006–$0,0018 per profil. Det er så lite at det nesten er irrelevant for arbeidsflyter med middels volum.

Sammenligning side om side

DimensjonCSS-selektor / XPathAI/LLM-uthenting
OppsettsinnsatsHøy — inspiser DOM, skriv selektorer for hvert feltLav — beskriv ønsket output på naturlig språk
Brudd ved layoutendringerBryter umiddelbartTilpasser seg automatisk (leser semantisk)
Nøyaktighet på strukturerte felt~99 % når selektorene er riktige~95–98 % (av og til tolkingsfeil fra LLM)
Håndtering av ustrukturert/varierende dataSvak uten egendefinert logikkSterk — AI tolker kontekst
Kostnad per profilNær null (kun datakraft)~$0,001–$0,002 (API-tokenkostnad)
Merking/kategoriseringKrever separat etterbehandlingKan kategorisere, oversette og merke i én omgang
VedlikeholdsbyrdeLøpende selektorfikserNær null

Hva bør du velge?

For svært høyvolum, stabile og ingeniøreide pipelines kan selektorbasert parsing fortsatt vinne på kostnad. For de fleste små og mellomstore brukere som scraper hundrevis (ikke millioner) av profiler, er AI-uthenting den bedre langsiktige investeringen fordi layoutendringer hos LinkedIn koster mer i utviklertid enn i modell-tokens du sparer.

Når GitHub-repoer blir overkill: No-code-sporet

De fleste som søker på "linkedin scraper github" vil ikke bli vedlikeholdere av nettleserautomatisering.

De vil ha rader i en tabell.

Brukere klager eksplisitt på brukervennligheten til GitHub-scrapere i issue-tråder: «It does not handle 2FA and it is not easy to use since there is no UI.» Målgruppen inkluderer rekrutterere, SDR-er og driftsledere — ikke bare Python-utviklere.

Bygg vs. kjøp

FaktorGitHub-repoNo-code-verktøy (f.eks. Thunderbit)
Oppsetttid30 min–2+ timer (Python, avhengigheter, proxies)Under 2 minutter (installer utvidelse, klikk)
VedlikeholdDu fikser det når LinkedIn endrer segLeverandøren håndterer oppdateringer
Anti-deteksjonDu konfigurerer proxies, forsinkelser, sesjonerInnebygd i verktøyet
DatastruktureringDu skriver parser-logikkAI foreslår felter automatisk
EksportalternativerDu bygger eksportløpÉn-klikk til Excel, Google Sheets, Airtable, Notion
KostnadGratis repo + proxykostnader + din tidGratis nivå tilgjengelig; kredittbasert ved høyere volum

Hvordan Thunderbit håndterer LinkedIn scraping uten kode

løser problemet annerledes enn GitHub-repoer. I stedet for å skrive selektorer eller konfigurere nettleserautomatisering, gjør du dette:

  1. Installer
  2. Gå til en hvilken som helst LinkedIn-side (søkeresultater, profil, bedriftsside)
  3. Klikk «AI Suggest Fields» — Thunderbits AI leser siden og foreslår strukturerte kolonner (navn, tittel, selskap, sted osv.)
  4. Juster kolonnene om nødvendig, og klikk for å hente ut data
  5. Eksporter direkte til Excel, Google Sheets, eller Notion

Fordi Thunderbit bruker AI til å lese siden semantisk hver gang, bryter det ikke når LinkedIn endrer DOM-en. Det er den samme fordelen som GPT-integrert tilnærming i egendefinerte Python-skript, men pakket inn i en no-code-utvidelse i stedet for en kodebase du må vedlikeholde.

For — å klikke inn i individuelle profiler fra en søkeresultatliste for å berike datatabellen din — håndterer Thunderbit dette automatisk. Nettlesermodus fungerer for sider som krever innlogging, uten separat proxy-konfigurasjon.

Hvem bør fortsatt bruke et GitHub-repo?

GitHub-repoer gir fortsatt mening for:

  • Utviklere som trenger dyp tilpasning eller uvanlige datatyper
  • Team som scraper i svært høyt volum der kostnader per kreditt betyr mye
  • Brukere som må kjøre scraping i CI/CD-pipelines eller på servere
  • Folk som bygger LinkedIn-data inn i større automatiserte arbeidsflyter

For alle andre — særlig salg-, rekrutterings- og driftsteam — fjerner hele syklusen med oppsett og vedlikehold.

Steg for steg: Slik evaluerer og bruker du en LinkedIn Scraper fra GitHub

Hvis du har bestemt deg for at GitHub er riktig vei, er her en trinnvis arbeidsflyt som minimerer bortkastet tid og kontorisiko.

Trinn 1: Søk og lag en shortlist over repoer

Søk på GitHub etter "linkedin scraper" og filtrer etter:

  • Nylig oppdatert (siste 6 måneder)
  • Språk som matcher stakken din (Python er vanligst)
  • Omfang som matcher ditt faktiske behov (profiler vs. jobber vs. selskaper)

Lag en shortlist med 3–5 repoer som ser levende ut.

Trinn 2: Bruk repo-helsekortet

Kjør hvert repo gjennom kortet fra tidligere. Fjern alt som har:

  • Ingen commits det siste året
  • Uløste issues om «blocked» eller «CAPTCHA»
  • Passordbasert autentisering alene
  • Ingen omtale av sesjoner, cookies eller proxies

Trinn 3: Sett opp miljøet ditt

Vanlige oppsettskommandoer fra repoene i denne gjennomgangen:

1pip install linkedin-scraper
2playwright install chromium
3pip install linkedin-jobs-scraper
4LI_AT_COOKIE=<cookie> python your_app.py
5scrapy crawl linkedin_people_profile

De vanligste friksjonspunktene:

  • Manglende session.json-filer
  • Uoverensstemmelser i versjon for nettleserdriver (Chromium/Playwright)
  • Cookie-uthenting fra browser DevTools
  • Tidsavbrudd ved proxy-autentisering

Trinn 4: Kjør en liten test-scrape

Begynn med 10–20 profiler. Sjekk:

  • Er feltene riktig tolket?
  • Er dataene komplette?
  • Traf du noen sikkerhetssjekker?
  • Er output-formatet brukbart, eller bare rå JSON-støy?

Trinn 5: Skaler forsiktig

Legg til tilfeldige forsinkelser (5–15 sekunder mellom forespørsler), lavere samtidighet, gjenbruk av sesjoner og residential proxies. Ikke hopp rett til hundrevis av profiler per dag på en fersk konto.

Trinn 6: Eksporter og strukturer dataene dine

De fleste GitHub-repoer gir ut rå JSON eller CSV. Du må fortsatt:

  • Fjerne duplikater
  • Normalisere titler og selskapsnavn
  • Mappe feltene inn i CRM eller ATS
  • Dokumentere dataproveniens for samsvar

(Thunderbit håndterer strukturering og eksport automatisk hvis du heller vil hoppe over dette trinnet.)

LinkedIn Scraper GitHub vs. no-code-verktøy: Hele sammenligningen

DimensjonGitHub-repo (CSS-selektorer)GitHub-repo (AI/LLM)No-code-verktøy (Thunderbit)
Oppsetttid1–2+ timer1–3+ timer (+ API-nøkkel)Under 2 minutter
Teknisk kompetanseHøy (Python, CLI)Høy (Python + LLM API-er)Ingen
VedlikeholdHøy (selektorer bryter)Middels (LLM tilpasser seg, men koden må fortsatt oppdateres)Ingen (leverandøren vedlikeholder)
Anti-deteksjonDIY (proxies, forsinkelser)DIYInnebygd
NøyaktighetHøy når det virkerHøy med sporadiske LLM-feilHøy (AI-drevet)
KostnadGratis + proxykostnader + din tidGratis + LLM API-kostnader + proxykostnaderGratis nivå; kredittbasert ved volum
EksportDIY (JSON, CSV)DIYExcel, Sheets, Airtable, Notion
Best forUtviklere, egendefinerte pipelinesUtviklere som vil ha mindre vedlikeholdSalg-, rekrutterings- og driftsteam

Juridiske og etiske hensyn

Jeg holder denne delen kort, men den kan ikke hoppes over.

LinkedIns (gjeldende fra 3. november 2025) forbyr eksplisitt bruk av programvare, skript, roboter, crawlere eller nettleserutvidelser for å scrape tjenesten. LinkedIn har fulgt opp dette med håndheving:

  • : LinkedIn annonserte rettslige skritt mot Proxycurl
  • : LinkedIn sa at saken var løst
  • : Law360 rapporterte at LinkedIn saksøkte flere tiltalte for scraping i industriell skala

hiQ mot LinkedIn-sakene skapte noe nyanse rundt tilgang til offentlige data, men gikk i LinkedIns favør på teorier om kontraktsbrudd. «Offentlig synlig» betyr ikke «klart trygt å scrape i stor skala for kommersiell gjenbruk».

For EU-koblede arbeidsflyter gjelder . fra den franske datatilsynsmyndigheten er et konkret eksempel på at reguleringsmyndigheter behandler scraped LinkedIn-data som personopplysninger underlagt personvernregler.

Å bruke et vedlikeholdt verktøy som Thunderbit endrer ikke dine juridiske forpliktelser. Men det reduserer risikoen for å utløse sikkerhetsrespons ved et uhell eller bryte rate limits på måter som trekker til seg LinkedIns oppmerksomhet.

Hva som fungerer og hva som ikke fungerer i 2026

Hva som fungerer

  • Å bruke repo-helsekortet før du binder deg til et repo
  • Gjenbruk av cookies/sesjon i stedet for gjentatte automatiserte innlogginger
  • Residential proxies når du må kjøre kontobasert scraping
  • Mindre, tregere og mer menneskelignende scraping-arbeidsflyter
  • AI-assistert uthenting når du verdsetter tilpasningsevne mer enn marginal tokenkostnad
  • når det egentlige behovet er eksport til regneark, ikke eierskap til en scraper
  • Å diversifisere tilnærminger i stedet for å satse på ett offentlig repo

Hva som ikke fungerer

  • Å klone repoer med mange stjerner uten å sjekke vedlikeholdsstatus eller nylige issues
  • Å bruke datacenter-proxies eller gratis proxy-lister for LinkedIn
  • Å skalere til hundrevis av profiler per dag uten rate limits eller anti-deteksjon
  • Å stole på CSS-selektorer over tid uten en vedlikeholdsplan
  • Å behandle din ekte LinkedIn-konto som engangsinfrastruktur
  • Å forveksle «offentlig tilgjengelig» med «kontraktuelt eller juridisk uproblematisk»

Vanlige spørsmål

Fungerer LinkedIn scraper GitHub-repoer fortsatt i 2026?

Noen gjør det, men bare et lite mindretall. I denne gjennomgangen av åtte synlige repoer så bare to ut som faktisk brukbare for en leser i 2026 uten store forbehold. Nøkkelen er å vurdere repoer etter vedlikeholdsaktivitet og issue-helse, ikke antall stjerner. Bruk repo-helsekortet før du investerer oppsettid i et prosjekt.

Hvor mange LinkedIn-profiler kan jeg scrape per dag uten å bli bannet?

Det finnes ikke noe garantert trygt tall fordi LinkedIn vurderer sesjonsatferd, ikke bare volum. Fellesskapsrapporter tyder på at under 50 profiler/dag/konto er lavrisikosonen, 50–100/dag er middels risiko der infrastrukturkvalitet betyr mye, og over 100/dag blir stadig mer aggressivt. Tilfeldige forsinkelser på 5–15 sekunder og residential proxies hjelper, men ingenting fjerner risikoen helt.

Finnes det et no-code-alternativ til LinkedIn scraper GitHub-prosjekter?

Ja. lar deg scrape LinkedIn-sider i noen få klikk med AI-drevet feltgjenkjenning, nettleserbasert autentisering (ingen proxy-konfigurasjon nødvendig) og eksport med ett klikk til Excel, Google Sheets, Airtable eller Notion. Det er laget for salg-, rekrutterings- og driftsteam som vil ha data uten å vedlikeholde kode. Du kan prøve det via .

Er scraping av LinkedIn-data lovlig?

Det er et grått område med stadig skarpere kanter. LinkedIns User Agreement forbyr eksplisitt scraping, og LinkedIn har forfulgt rettslige skritt mot scrapers i . Prejudikatet i hiQ mot LinkedIn om tilgang til offentlige data er blitt snevret inn av nyere avgjørelser. GDPR gjelder personopplysninger om EU-borgere uavhengig av hvordan de samles inn. For enhver kommersiell bruk bør du få juridisk rådgivning som er tilpasset din situasjon.

AI-uthenting eller CSS-selektorer — hva bør jeg bruke til LinkedIn scraping?

CSS-selektorer er raskere og billigere per post når de fungerer, men de skaper en vedlikeholdskarusell fordi LinkedIn endrer DOM-en jevnlig. AI/LLM-uthenting koster litt mer per profil (~$0,001–$0,002 med dagens ), men tilpasser seg layoutendringer automatisk. For de fleste ikke-enterprise-brukere som scraper hundrevis snarere enn millioner av profiler, er AI-uthenting den bedre langsiktige investeringen. Thunderbits innebygde AI-motor gir denne fordelen uten at du trenger å skrive eller vedlikeholde kode.

Les mer

Ke
Ke
CTO @ Thunderbit. Ke er personen alle kontakter når data blir rotete. Han har brukt karrieren sin på å gjøre kjedelig, repeterende arbeid om til små, stille automatiseringer som bare går av seg selv. Hvis du noen gang har ønsket at et regneark kunne fylle seg selv ut, har Ke sannsynligvis allerede bygget det som gjør akkurat det.
Innholdsfortegnelse

Prøv Thunderbit

Hent leads og andre data med bare 2 klikk. Drevet av AI.

Få Thunderbit Det er gratis
Hent data med AI
Overfør enkelt data til Google Sheets, Airtable eller Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week