Et GitHub-søk etter "linkedin scraper" gir rundt per april 2026. De fleste kommer bare til å sløse bort tiden din. Hardt sagt? Kanskje. Men det er det jeg fant etter å ha gått gjennom åtte av de mest synlige repoene, lest dusinvis av GitHub issue-tråder og sammenlignet funnene med rapporter fra Reddit og scraping-forum. Mønsteret går igjen: repoer med mange stjerner trekker til seg oppmerksomhet, LinkedIns anti-bot-team studerer koden, deteksjonen oppdateres, og brukerne sitter igjen med ødelagte selektorer, CAPTCHA-løkker eller direkte kontobanning. Én Reddit-bruker beskrev situasjonen rett ut — LinkedIn har lagt til «strammere rate limits, bedre botdeteksjon, sessionsporing og hyppige endringer», og gamle verktøy «slutter raskt å fungere eller får kontoer/IP-er flagget». Hvis du er selger, rekrutterer eller driftsleder og trenger LinkedIn-data i et regneark, kan repoet du klonet forrige måned allerede være dødt. Denne guiden er laget for å hjelpe deg å finne ut hvilke GitHub-prosjekter som faktisk er verdt tiden din, hvordan du unngår at kontoen din blir brent, og når det gir mer mening å droppe koden helt.
Hva er en LinkedIn Scraper på GitHub?
Et GitHub-prosjekt for LinkedIn scraping er et åpent kildekode-skript — vanligvis Python, noen ganger Node.js — som automatiserer uthenting av strukturert data fra LinkedIn-sider. Typiske mål inkluderer:
- Personprofiler: navn, tittel, selskap, sted, ferdigheter, erfaring
- Stillingsannonser: tittel, selskap, sted, publiseringsdato, jobb-URL
- Bedriftssider: oversikt, antall ansatte, bransje, antall følgere
- Innlegg og engasjement: innholdstekst, likerklikk, kommentarer, delinger
Under panseret bruker de fleste repoer én av to tilnærminger. Nettleserbaserte scrapers bruker Selenium, Playwright eller Puppeteer til å rendere sider, klikke seg gjennom flyter og hente ut data via CSS-selektorer eller XPath. En mindre gruppe prøver å kalle LinkedIns interne (udokumenterte) API-endepunkter direkte. Og en nyere bølge — fortsatt sjelden på GitHub, men voksende — kombinerer nettleserautomatisering med en LLM som GPT-4o mini for å tolke sidetekst til strukturerte felter uten skjøre selektorer.
Det er et grunnleggende misforhold mellom verktøy og bruker. Disse verktøyene lages av utviklere som er komfortable med virtuelle miljøer, nettleseravhengigheter og proxy-konfigurasjon. Men en stor andel av dem som søker på "linkedin scraper github" er rekrutterere, SDR-er, RevOps-ledere og gründere som bare vil ha rader i et regneark.
Det forklarer det meste av frustrasjonen i issue-trådene.
Hvorfor folk tyr til GitHub for LinkedIn scraping
Fordelen er åpenbar. Gratis. Kan tilpasses. Ingen leverandørbinding. Full kontroll over datarøret ditt. Hvis et SaaS-verktøy endrer priser eller legges ned, finnes koden din fortsatt.
| Bruksområde | Hvem trenger det | Typiske data som hentes ut |
|---|---|---|
| Leadgenerering | Salgsteam | Navn, titler, selskaper, profil-URL-er, hint om e-post |
| Kandidatsøk | Rekrutterere | Profiler, ferdigheter, erfaring, steder |
| Markedsanalyse | Drift- og strategiteam | Bedriftsdata, antall ansatte, stillingsannonser |
| Konkurrentanalyse | Markedsføringsteam | Innlegg, engasjement, bedriftsoppdateringer, ansettelsessignaler |
Men «gratis» er en lisensetikett, ikke driftskostnaden. De reelle kostnadene er:
- Oppsettstid: selv vennlige repoer krever som regel 30 minutter til over 2 timer for miljøoppsett, nettleseravhengigheter, cookie-uthenting og proxy-konfigurasjon
- Vedlikehold: LinkedIn endrer DOM-en og anti-bot-forsvaret sitt jevnlig — en scraper som virker i dag kan ryke neste uke
- Proxies: residential proxy-båndbredde koster avhengig av leverandør og plan
- Kontorisiko: LinkedIn-kontoen din er det mest verdifulle som står på spill, og den kan ikke erstattes som en proxy-IP
Repo-helsekortet: Slik vurderer du ethvert LinkedIn Scraper GitHub-prosjekt
De fleste «beste LinkedIn scraper»-lister rangerer repoer etter antall stjerner. Stjerner måler historisk interesse, ikke om verktøyet faktisk fungerer nå. Et repo med 3 000 stjerner og ingen commits siden 2022 er en museumsgenstand, ikke et produksjonsverktøy.
Før du kjører git clone på noe som helst, bruk dette rammeverket:
| Kriterium | Hvorfor det er viktig | Varsellampe |
|---|---|---|
| Dato for siste commit | LinkedIn endrer DOM ofte | > 6 måneder siden for nettleserbaserte repoer |
| Forhold mellom åpne/lukkede issues | Hvor responsiv vedlikeholderen er | > 3:1 åpne-lukkede, spesielt med nyere rapporter om «blocked» eller «CAPTCHA» |
| Anti-deteksjonsfunksjoner | LinkedIn slår hardt ned på scraping | Ingen omtale av cookies, sesjoner, pacing eller proxies i README |
| Autentiseringsmetode | 2FA og CAPTCHA ødelegger innloggingsflyter | Støtter bare passordbasert headless-innlogging |
| Lisenstype | Juridisk risiko ved kommersiell bruk | Ingen lisens eller uklare vilkår |
| Støttede datatyper | Ulike behov krever ulike repoer | Bare én datatypen når du trenger flere |
Det ene trikset som sparer mest tid: Før du binder deg til et repo, søk i Issues-fanen etter «blocked», «banned», «CAPTCHA» eller «not working». Hvis nylige issues er fulle av slike ord uten respons fra vedlikeholderen, gå videre. Det repoet har allerede tapt kampen.
Hva revisjonen i 2026 faktisk fant

Jeg brukte dette kortet på åtte av de mest synlige LinkedIn scraper-repoene på GitHub. Resultatet var ikke oppmuntrende.
| Repo | Stjerner | Siste commit | Fungerer i 2026? | Hovedområde | Viktige notater |
|---|---|---|---|---|---|
| joeyism/linkedin_scraper | ~3 983 | Apr 2026 | ✅ Med forbehold | Profiler, selskaper, innlegg, jobber | Playwright-basert omskriving, gjenbruk av sesjoner — men nylige issues viser sikkerhetsblokker og ødelagt jobbsøk |
| python-scrapy-playbook/linkedin-python-scrapy-scraper | ~111 | Jan 2026 | ✅ For opplæringsmateriell/offentlige data | Personer, selskaper, jobber | ScrapeOps proxy-integrasjon; gratisplanen tillater 1 000 forespørsler/måned med 1 tråd |
| spinlud/py-linkedin-jobs-scraper | ~472 | Mar 2025 | ⚠️ Kun jobber | Jobber | Cookie-støtte, eksperimentell proxy-modus — nyttig hvis du bare trenger offentlige stillingsannonser |
| madingess/EasyApplyBot | ~170 | Mar 2025 | ⚠️ Feil verktøy | Automatisering av Easy Apply | Ikke en data-scraper — automatiserer jobbsøknader |
| linkedtales/scrapedin | ~611 | Mai 2021 | ❌ | Profiler | README sier fortsatt «working in 2020»; issues viser PIN-verifisering og HTML-endringer |
| austinoboyle/scrape-linkedin-selenium | ~526 | Okt 2022 | ❌ | Profiler, selskaper | En gang nyttig, nå for utdatert til 2026 |
| eilonmore/linkedin-private-api | ~291 | Jul 2022 | ❌ | Profiler, jobber, selskaper, innlegg | Wrapper for privat API; udokumenterte endepunkter endrer seg uforutsigbart |
| nsandman/linkedin-api | ~154 | Jul 2019 | ❌ | Profiler, meldinger, søk | Historisk interessant; dokumenterte rate limits etter omtrent 900 forespørsler/time |
Bare 2 av 8 repoer så faktisk brukbare ut for en leser i 2026 uten store forbehold. Det forholdet er ikke uvanlig — det er normalen for LinkedIn scraping på GitHub.
Ban-forebygging: Proxies, rate limits og kontosikkerhet
Kontobanning er den største operative risikoen. Selv teknisk dyktige scrapers feiler her. Koden fungerer; kontoen gjør det ikke. Brukere rapporterer å bli flagget etter så lite som selv med proxies og lange pauser.
Rate limiting: Hva fellesskapet rapporterer

Det finnes ikke noe garantert trygt tall. LinkedIn vurderer sesjonsalder, klikk-timing, burst-mønstre, IP-omdømme og kontoadferd — ikke bare rå volum. Fellesskapsdata samler seg rundt disse nivåene:
- Én bruker rapporterte deteksjon etter 40–80 profiler med proxies og 33 sekunders pacing
- En annen anbefalte å holde seg rundt 30 profiler/dag/konto
- En mer aggressiv operatør hevdet fordelt utover dagen
- dokumenterte en intern advarsel om rate limit etter omtrent 900 forespørsler på én time
Den praktiske oppsummeringen: under 50 profilvisninger/dag/konto er lavrisikosonen. 50–100/dag er middels risiko, der kvaliteten på sesjonen betyr mye. Over 100/dag/konto blir det stadig mer aggressivt.
Proxy-strategi: Residential vs. datacenter
Residential proxies er fortsatt standarden for LinkedIn fordi de ligner normal trafikk fra sluttbrukere. Datacenter-IP-er er billigere, men blir flagget raskere på avanserte nettsteder — og LinkedIn er nettopp et slikt nettsted hvor billig trafikk blir lagt merke til.
Dagens prisbilde:
- : $3,00–$4,00/GB avhengig av plan
- : $4,00–$6,00/GB avhengig av plan
Roter per sesjon, ikke per forespørsel. Rotasjon per forespørsel skaper et fingeravtrykk som roper «proxy-infrastruktur» høyere enn én enkelt IP ville gjort.
Protocol for brennerkontoer
Rådet fra fellesskapet er tydelig: Ikke behandle din primære LinkedIn-konto som engangsinfrastruktur for scraping.
Hvis du likevel vil bruke kontobasert scraping:
- Bruk en separat konto, adskilt fra din primære profesjonelle identitet
- Fullfør profilen og la den oppføre seg som et menneske i noen dager før scraping
- Aldri koble ditt ekte telefonnummer til scraping-kontoer
- Hold scraping-øktene helt adskilt fra ekte outreach og meldinger
Verdt å merke seg: LinkedIns (gjeldende fra 3. november 2025) forbyr eksplisitt falske identiteter og deling av kontoer. Brennerkonto-taktikken er operasjonelt vanlig, men kontraktuelt rotete.
Håndtering av CAPTCHA-er
En CAPTCHA er ikke bare en irritasjon. Det er et signal om at sesjonen din allerede er under oppsikt. Alternativer inkluderer:
- Manuell fullføring for å fortsette en sesjon
- Gjenbruk av cookies i stedet for å kjøre innloggingsflyten på nytt
- Løsetjenester som (~$0,50–$1,00 per 1 000 bilde-CAPTCHA-er, ~ $1,00–$2,99 per 1 000 reCAPTCHA v2-løsninger)
Men hvis arbeidsflyten din stadig utløser CAPTCHA-er, er økonomien i løsetjenester det minste problemet ditt. Stakken din taper stealth-kampen.
Risikospekteret
| Volum | Risikonivå | Anbefalt tilnærming |
|---|---|---|
| < 50 profiler/dag | Lavere | Nettlesersesjon eller gjenbruk av cookies, rolig pacing, ingen aggressiv automatisering |
| 50–500 profiler/dag | Middels til høy | Residential proxies, «varmede» kontoer, gjenbruk av sesjoner, tilfeldige forsinkelser |
| 500+/dag | Svært høy | Kommersielle API-er eller vedlikeholdte verktøy med innebygd anti-deteksjon; offentlige GitHub-repoer er vanligvis ikke nok |
Open source-paradokset: Hvorfor populære LinkedIn Scraper GitHub-repoer bryter raskere
Brukere tar opp en legitim bekymring: «Hvis dere lager en åpen kildekode-versjon, kan jo LinkedIn bare se hva dere gjør og stoppe det.» Den bekymringen er ikke paranoid. Den er strukturelt riktig.
Synlighetsproblemet
Høyt stjernetal skaper to signaler samtidig: tillit for brukere og et mål for LinkedIns sikkerhetsteam. Jo mer populært et repo blir, desto større er sjansen for at LinkedIn spesifikt motarbeider metodene det bruker.
Du ser denne livssyklusen i revisjonsdataene. linkedtales/scrapedin var betydningsfullt nok til å markedsføre at det fungerte med LinkedIns «nye nettsted» i 2020. Men repoet klarte ikke å følge med på senere verifiserings- og layoutendringer. nsandman/linkedin-api dokumenterte nyttige triks en gang, men siste commit kom flere år før dagens anti-bot-miljø.
Fordelen med fellesskapspatcher
Open source har likevel én reell fordel: aktive vedlikeholdere og bidragsytere kan patche raskt når LinkedIn endrer forsvar. joeyism/linkedin_scraper er hovedeksemplet i denne gjennomgangen — det får fortsatt opp blocked-auth og ødelagte søk, men det beveger seg i det minste. Forks implementerer ofte nyere omgåelsesteknikker raskere enn originalrepoet.
Hva du bør gjøre med det
- Ikke stol på ett enkelt offentlig repo som permanent infrastruktur
- Se etter aktive forks som implementerer oppdaterte omgåelsesteknikker
- Vurder å vedlikeholde en privat fork for produksjonsbruk (slik at dine spesifikke tilpasninger ikke blir offentlige)
- Forvent å måtte endre metode når LinkedIn endrer deteksjon eller UI-atferd
- Diversifiser tilnærmingene i stedet for å satse alt på ett verktøy
AI-drevet uthenting vs. CSS-selektorer: En praktisk sammenligning

Det mer interessante tekniske skillet i 2026 er ikke GitHub versus no-code. Det er selektorbasert uthenting versus semantisk uthenting — og forskjellen betyr mer enn de fleste oversikter erkjenner.
Hvordan CSS-selektorer fungerer (og brekker)
Tradisjonelle scrapers inspiserer LinkedIns DOM og mapper hvert felt til en CSS-selektor eller XPath-uttrykk. Når siden er stabil, er tilnærmingen utmerket: høy presisjon, lav marginalkostnad, svært rask parsing.
Feilmodusen er like åpenbar. LinkedIn endrer klassenavn, nestingsstruktur, lazy-loading-atferd eller sperrer innhold bak andre auth-walls — og scraperen ryker umiddelbart. Issue-titlene i reposjekken forteller historien: «changed HTML», «broken job search», «missing values», «authwall blocks».
Hvordan AI/LLM-uthenting fungerer
Det nyere mønsteret er enklere i konsept: rendér siden, hent den synlige teksten, og be en modell om å levere strukturerte felter. Det er logikken bak mange no-code AI-scrapere og noen nyere egendefinerte arbeidsflyter.
Med dagens ($0,15/1M input tokens, $0,60/1M output tokens) koster ett tekstbasert uthentingspass for én profil typisk $0,0006–$0,0018 per profil. Det er så lite at det nesten er irrelevant for arbeidsflyter med middels volum.
Sammenligning side om side
| Dimensjon | CSS-selektor / XPath | AI/LLM-uthenting |
|---|---|---|
| Oppsettsinnsats | Høy — inspiser DOM, skriv selektorer for hvert felt | Lav — beskriv ønsket output på naturlig språk |
| Brudd ved layoutendringer | Bryter umiddelbart | Tilpasser seg automatisk (leser semantisk) |
| Nøyaktighet på strukturerte felt | ~99 % når selektorene er riktige | ~95–98 % (av og til tolkingsfeil fra LLM) |
| Håndtering av ustrukturert/varierende data | Svak uten egendefinert logikk | Sterk — AI tolker kontekst |
| Kostnad per profil | Nær null (kun datakraft) | ~$0,001–$0,002 (API-tokenkostnad) |
| Merking/kategorisering | Krever separat etterbehandling | Kan kategorisere, oversette og merke i én omgang |
| Vedlikeholdsbyrde | Løpende selektorfikser | Nær null |
Hva bør du velge?
For svært høyvolum, stabile og ingeniøreide pipelines kan selektorbasert parsing fortsatt vinne på kostnad. For de fleste små og mellomstore brukere som scraper hundrevis (ikke millioner) av profiler, er AI-uthenting den bedre langsiktige investeringen fordi layoutendringer hos LinkedIn koster mer i utviklertid enn i modell-tokens du sparer.
Når GitHub-repoer blir overkill: No-code-sporet
De fleste som søker på "linkedin scraper github" vil ikke bli vedlikeholdere av nettleserautomatisering.
De vil ha rader i en tabell.
Brukere klager eksplisitt på brukervennligheten til GitHub-scrapere i issue-tråder: «It does not handle 2FA and it is not easy to use since there is no UI.» Målgruppen inkluderer rekrutterere, SDR-er og driftsledere — ikke bare Python-utviklere.
Bygg vs. kjøp
| Faktor | GitHub-repo | No-code-verktøy (f.eks. Thunderbit) |
|---|---|---|
| Oppsetttid | 30 min–2+ timer (Python, avhengigheter, proxies) | Under 2 minutter (installer utvidelse, klikk) |
| Vedlikehold | Du fikser det når LinkedIn endrer seg | Leverandøren håndterer oppdateringer |
| Anti-deteksjon | Du konfigurerer proxies, forsinkelser, sesjoner | Innebygd i verktøyet |
| Datastrukturering | Du skriver parser-logikk | AI foreslår felter automatisk |
| Eksportalternativer | Du bygger eksportløp | Én-klikk til Excel, Google Sheets, Airtable, Notion |
| Kostnad | Gratis repo + proxykostnader + din tid | Gratis nivå tilgjengelig; kredittbasert ved høyere volum |
Hvordan Thunderbit håndterer LinkedIn scraping uten kode
løser problemet annerledes enn GitHub-repoer. I stedet for å skrive selektorer eller konfigurere nettleserautomatisering, gjør du dette:
- Installer
- Gå til en hvilken som helst LinkedIn-side (søkeresultater, profil, bedriftsside)
- Klikk «AI Suggest Fields» — Thunderbits AI leser siden og foreslår strukturerte kolonner (navn, tittel, selskap, sted osv.)
- Juster kolonnene om nødvendig, og klikk for å hente ut data
- Eksporter direkte til Excel, Google Sheets, eller Notion
Fordi Thunderbit bruker AI til å lese siden semantisk hver gang, bryter det ikke når LinkedIn endrer DOM-en. Det er den samme fordelen som GPT-integrert tilnærming i egendefinerte Python-skript, men pakket inn i en no-code-utvidelse i stedet for en kodebase du må vedlikeholde.
For — å klikke inn i individuelle profiler fra en søkeresultatliste for å berike datatabellen din — håndterer Thunderbit dette automatisk. Nettlesermodus fungerer for sider som krever innlogging, uten separat proxy-konfigurasjon.
Hvem bør fortsatt bruke et GitHub-repo?
GitHub-repoer gir fortsatt mening for:
- Utviklere som trenger dyp tilpasning eller uvanlige datatyper
- Team som scraper i svært høyt volum der kostnader per kreditt betyr mye
- Brukere som må kjøre scraping i CI/CD-pipelines eller på servere
- Folk som bygger LinkedIn-data inn i større automatiserte arbeidsflyter
For alle andre — særlig salg-, rekrutterings- og driftsteam — fjerner hele syklusen med oppsett og vedlikehold.
Steg for steg: Slik evaluerer og bruker du en LinkedIn Scraper fra GitHub
Hvis du har bestemt deg for at GitHub er riktig vei, er her en trinnvis arbeidsflyt som minimerer bortkastet tid og kontorisiko.
Trinn 1: Søk og lag en shortlist over repoer
Søk på GitHub etter "linkedin scraper" og filtrer etter:
- Nylig oppdatert (siste 6 måneder)
- Språk som matcher stakken din (Python er vanligst)
- Omfang som matcher ditt faktiske behov (profiler vs. jobber vs. selskaper)
Lag en shortlist med 3–5 repoer som ser levende ut.
Trinn 2: Bruk repo-helsekortet
Kjør hvert repo gjennom kortet fra tidligere. Fjern alt som har:
- Ingen commits det siste året
- Uløste issues om «blocked» eller «CAPTCHA»
- Passordbasert autentisering alene
- Ingen omtale av sesjoner, cookies eller proxies
Trinn 3: Sett opp miljøet ditt
Vanlige oppsettskommandoer fra repoene i denne gjennomgangen:
1pip install linkedin-scraper
2playwright install chromium
3pip install linkedin-jobs-scraper
4LI_AT_COOKIE=<cookie> python your_app.py
5scrapy crawl linkedin_people_profile
De vanligste friksjonspunktene:
- Manglende
session.json-filer - Uoverensstemmelser i versjon for nettleserdriver (Chromium/Playwright)
- Cookie-uthenting fra browser DevTools
- Tidsavbrudd ved proxy-autentisering
Trinn 4: Kjør en liten test-scrape
Begynn med 10–20 profiler. Sjekk:
- Er feltene riktig tolket?
- Er dataene komplette?
- Traf du noen sikkerhetssjekker?
- Er output-formatet brukbart, eller bare rå JSON-støy?
Trinn 5: Skaler forsiktig
Legg til tilfeldige forsinkelser (5–15 sekunder mellom forespørsler), lavere samtidighet, gjenbruk av sesjoner og residential proxies. Ikke hopp rett til hundrevis av profiler per dag på en fersk konto.
Trinn 6: Eksporter og strukturer dataene dine
De fleste GitHub-repoer gir ut rå JSON eller CSV. Du må fortsatt:
- Fjerne duplikater
- Normalisere titler og selskapsnavn
- Mappe feltene inn i CRM eller ATS
- Dokumentere dataproveniens for samsvar
(Thunderbit håndterer strukturering og eksport automatisk hvis du heller vil hoppe over dette trinnet.)
LinkedIn Scraper GitHub vs. no-code-verktøy: Hele sammenligningen
| Dimensjon | GitHub-repo (CSS-selektorer) | GitHub-repo (AI/LLM) | No-code-verktøy (Thunderbit) |
|---|---|---|---|
| Oppsetttid | 1–2+ timer | 1–3+ timer (+ API-nøkkel) | Under 2 minutter |
| Teknisk kompetanse | Høy (Python, CLI) | Høy (Python + LLM API-er) | Ingen |
| Vedlikehold | Høy (selektorer bryter) | Middels (LLM tilpasser seg, men koden må fortsatt oppdateres) | Ingen (leverandøren vedlikeholder) |
| Anti-deteksjon | DIY (proxies, forsinkelser) | DIY | Innebygd |
| Nøyaktighet | Høy når det virker | Høy med sporadiske LLM-feil | Høy (AI-drevet) |
| Kostnad | Gratis + proxykostnader + din tid | Gratis + LLM API-kostnader + proxykostnader | Gratis nivå; kredittbasert ved volum |
| Eksport | DIY (JSON, CSV) | DIY | Excel, Sheets, Airtable, Notion |
| Best for | Utviklere, egendefinerte pipelines | Utviklere som vil ha mindre vedlikehold | Salg-, rekrutterings- og driftsteam |
Juridiske og etiske hensyn
Jeg holder denne delen kort, men den kan ikke hoppes over.
LinkedIns (gjeldende fra 3. november 2025) forbyr eksplisitt bruk av programvare, skript, roboter, crawlere eller nettleserutvidelser for å scrape tjenesten. LinkedIn har fulgt opp dette med håndheving:
- : LinkedIn annonserte rettslige skritt mot Proxycurl
- : LinkedIn sa at saken var løst
- : Law360 rapporterte at LinkedIn saksøkte flere tiltalte for scraping i industriell skala
hiQ mot LinkedIn-sakene skapte noe nyanse rundt tilgang til offentlige data, men gikk i LinkedIns favør på teorier om kontraktsbrudd. «Offentlig synlig» betyr ikke «klart trygt å scrape i stor skala for kommersiell gjenbruk».
For EU-koblede arbeidsflyter gjelder . fra den franske datatilsynsmyndigheten er et konkret eksempel på at reguleringsmyndigheter behandler scraped LinkedIn-data som personopplysninger underlagt personvernregler.
Å bruke et vedlikeholdt verktøy som Thunderbit endrer ikke dine juridiske forpliktelser. Men det reduserer risikoen for å utløse sikkerhetsrespons ved et uhell eller bryte rate limits på måter som trekker til seg LinkedIns oppmerksomhet.
Hva som fungerer og hva som ikke fungerer i 2026
Hva som fungerer
- Å bruke repo-helsekortet før du binder deg til et repo
- Gjenbruk av cookies/sesjon i stedet for gjentatte automatiserte innlogginger
- Residential proxies når du må kjøre kontobasert scraping
- Mindre, tregere og mer menneskelignende scraping-arbeidsflyter
- AI-assistert uthenting når du verdsetter tilpasningsevne mer enn marginal tokenkostnad
- når det egentlige behovet er eksport til regneark, ikke eierskap til en scraper
- Å diversifisere tilnærminger i stedet for å satse på ett offentlig repo
Hva som ikke fungerer
- Å klone repoer med mange stjerner uten å sjekke vedlikeholdsstatus eller nylige issues
- Å bruke datacenter-proxies eller gratis proxy-lister for LinkedIn
- Å skalere til hundrevis av profiler per dag uten rate limits eller anti-deteksjon
- Å stole på CSS-selektorer over tid uten en vedlikeholdsplan
- Å behandle din ekte LinkedIn-konto som engangsinfrastruktur
- Å forveksle «offentlig tilgjengelig» med «kontraktuelt eller juridisk uproblematisk»
Vanlige spørsmål
Fungerer LinkedIn scraper GitHub-repoer fortsatt i 2026?
Noen gjør det, men bare et lite mindretall. I denne gjennomgangen av åtte synlige repoer så bare to ut som faktisk brukbare for en leser i 2026 uten store forbehold. Nøkkelen er å vurdere repoer etter vedlikeholdsaktivitet og issue-helse, ikke antall stjerner. Bruk repo-helsekortet før du investerer oppsettid i et prosjekt.
Hvor mange LinkedIn-profiler kan jeg scrape per dag uten å bli bannet?
Det finnes ikke noe garantert trygt tall fordi LinkedIn vurderer sesjonsatferd, ikke bare volum. Fellesskapsrapporter tyder på at under 50 profiler/dag/konto er lavrisikosonen, 50–100/dag er middels risiko der infrastrukturkvalitet betyr mye, og over 100/dag blir stadig mer aggressivt. Tilfeldige forsinkelser på 5–15 sekunder og residential proxies hjelper, men ingenting fjerner risikoen helt.
Finnes det et no-code-alternativ til LinkedIn scraper GitHub-prosjekter?
Ja. lar deg scrape LinkedIn-sider i noen få klikk med AI-drevet feltgjenkjenning, nettleserbasert autentisering (ingen proxy-konfigurasjon nødvendig) og eksport med ett klikk til Excel, Google Sheets, Airtable eller Notion. Det er laget for salg-, rekrutterings- og driftsteam som vil ha data uten å vedlikeholde kode. Du kan prøve det via .
Er scraping av LinkedIn-data lovlig?
Det er et grått område med stadig skarpere kanter. LinkedIns User Agreement forbyr eksplisitt scraping, og LinkedIn har forfulgt rettslige skritt mot scrapers i . Prejudikatet i hiQ mot LinkedIn om tilgang til offentlige data er blitt snevret inn av nyere avgjørelser. GDPR gjelder personopplysninger om EU-borgere uavhengig av hvordan de samles inn. For enhver kommersiell bruk bør du få juridisk rådgivning som er tilpasset din situasjon.
AI-uthenting eller CSS-selektorer — hva bør jeg bruke til LinkedIn scraping?
CSS-selektorer er raskere og billigere per post når de fungerer, men de skaper en vedlikeholdskarusell fordi LinkedIn endrer DOM-en jevnlig. AI/LLM-uthenting koster litt mer per profil (~$0,001–$0,002 med dagens ), men tilpasser seg layoutendringer automatisk. For de fleste ikke-enterprise-brukere som scraper hundrevis snarere enn millioner av profiler, er AI-uthenting den bedre langsiktige investeringen. Thunderbits innebygde AI-motor gir denne fordelen uten at du trenger å skrive eller vedlikeholde kode.
Les mer
